بازينجا

صورة توضيحية لروبوت محبط مع علامة تحذير حمراء وخلفه رسوم بيانية، ترمز إلى تحديات الذكاء الاصطناعي في تقديم إجابات دقيقة

أبحاث OpenAI تكشف عن نسب خطأ عالية في نماذج الذكاء الاصطناعي المتقدمة

Written by

Picture of فريقنا

فريقنا

Communications Consultant

نشرت شركة OpenAI مؤخرًا معيارًا جديدًا يدعى “SimpleQA”، يهدف إلى قياس دقة مخرجات نماذج الذكاء الاصطناعي الخاصة بها وتلك التابعة للشركات المنافسة. تكشف هذه الأبحاث أن حتى النماذج الأحدث والأكثر تقدمًا من OpenAI تعاني من نسب خطأ مرتفعة في تقديم إجابات صحيحة.

وفقًا لاختبارات OpenAI، حصل نموذجها المتقدم o1-preview، الذي أُصدر في الشهر الماضي، على معدل نجاح بنسبة 42.7% فقط في معيار SimpleQA. بمعنى آخر، يظهر النموذج احتمالًا أكبر لتقديم إجابات خاطئة مقارنة بتقديم إجابات صحيحة، مما يثير قلقًا واسعًا، خاصة مع انتشار هذه التكنولوجيا في جوانب عديدة من حياتنا اليومية.

تحديات في دقة الذكاء الاصطناعي

يعتبر هذا الكشف تأكيدًا إضافيًا على التحديات التي تواجهها نماذج الذكاء الاصطناعي، إذ تفشل هذه النماذج بشكل متكرر في تقديم إجابات دقيقة. بعض النماذج المنافسة، مثل نموذج Claude-3.5-sonnet من شركة Anthropic، حقق أداءً أقل، حيث حصل على نسبة 28.9% فقط في معيار SimpleQA، ولكنه يتميز بقدرة أكبر على التعبير عن عدم يقينه في الإجابات، مما يقلل من فرص تقديم معلومات خاطئة بثقة مفرطة.

الثقة المفرطة في المعلومات الخاطئة

واحدة من المشاكل التي اكتشفتها OpenAI هي ميل نماذج الذكاء الاصطناعي إلى المبالغة في تقدير قدراتها، حيث تميل هذه النماذج إلى الثقة العالية في المعلومات غير الصحيحة التي تقدمها. وتعد هذه المشكلة من أخطر التحديات، لأن الثقة المفرطة قد تدفع المستخدمين للاعتماد على إجابات غير صحيحة.

“الهلوسة” وتحديات الذكاء الاصطناعي

لطالما كانت ظاهرة “الهلوسة” في نماذج الذكاء الاصطناعي مشكلة بارزة، وهو مصطلح يشير إلى ميل هذه النماذج لتوليد إجابات غير دقيقة أو حتى مختلقة بالكامل. وعلى الرغم من أن خطر الحصول على معلومات مغلوطة مرتفع، إلا أن المجتمع اعتمد بشكل كبير على الذكاء الاصطناعي، سواء في إنشاء المهام الدراسية أو توليد الشيفرات البرمجية.

لكن هذه الثغرات بدأت تظهر بوضوح، حيث اكتشفت إحدى النماذج المبنية على تقنية OpenAI والمستخدمة في المستشفيات ميلًا لتقديم “هلوسات” وأخطاء متعددة عند تسجيل تفاعلات المرضى. حتى في تطبيقات القانون، أصبحت بعض قوات الشرطة في الولايات المتحدة تعتمد على الذكاء الاصطناعي، وهو تطور يثير مخاوف حول احتمالية توجيه اتهامات خاطئة لأبرياء أو تعزيز الانحيازات السلبية.

ما يخبئه المستقبل لنماذج الذكاء الاصطناعي الكبيرة

تعتبر نتائج أبحاث OpenAI الأخيرة تحذيرًا جديدًا حول عدم قدرة نماذج الذكاء الاصطناعي الحالية على تقديم معلومات دقيقة وموثوقة. هذه التطورات تستدعي منا أن نتعامل بحذر مع أي محتوى تولده هذه النماذج، والحرص على مراجعة الإجابات بدقة عالية.

يتساءل البعض عما إذا كان بالإمكان حل هذه المشكلة من خلال تدريب النماذج على مجموعات بيانات أكبر، وهو ما يحاول قادة التكنولوجيا طمأنة المستثمرين بشأنه. لكن يبقى هذا السؤال مفتوحًا، إذ لم يُثبت بعد ما إذا كانت البيانات الأكبر ستؤدي فعلًا إلى تقليل معدل الأخطاء وتقديم نتائج أكثر دقة.

مستقبل الذكاء الاصطناعي بين التقدم والقيود

بشكل عام، لا يزال الذكاء الاصطناعي يعاني من قيود في الدقة والموثوقية، بالرغم من كونه يستخدم بشكل متزايد في مجالات حيوية كالتعليم، الرعاية الصحية، والتطبيقات القانونية. مع كل تطور جديد، يتزايد الاعتماد على الذكاء الاصطناعي، لكن في المقابل تظهر هذه الثغرات لتذكرنا بأن هذه التكنولوجيا ليست كاملة وتحتاج إلى تحسينات جذرية لتكون موثوقة.

يتضح من هذا البحث أن التكنولوجيا الحالية للذكاء الاصطناعي ليست جاهزة بعد للاعتماد الكامل، خاصة عندما يتعلق الأمر بتقديم معلومات دقيقة دون تحيز أو خطأ.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading