بازينجا

معايير الذكاء الاصطناعي

الحاجة الماسة لمعايير أقوى لاختبار نماذج الذكاء الاصطناعي

Written by

Picture of فريقنا

فريقنا

Communications Consultant

مع ازدياد استخدام الذكاء الاصطناعي، تظهر حالات أكثر من الاستجابات الضارة التي تشمل خطاب الكراهية وانتهاك حقوق النشر والمحتوى الجنسي، مما يؤكد على ضرورة وضع معايير أقوى لاختبار هذه النماذج.

مع ازدياد استخدام الذكاء الاصطناعي، تظهر حالات أكثر من الاستجابات الضارة التي تشمل خطاب الكراهية وانتهاك حقوق النشر والمحتوى الجنسي، مما يؤكد على ضرورة وضع معايير أقوى لاختبار هذه النماذج قبل طرحها للجمهور.

محتويات المقالة:

مقدمة

في عصر تسارع تطوير تقنيات الذكاء الاصطناعي، تواجه الشركات والمطورون تحديات جديدة في ضمان سلامة وموثوقية النماذج التي يطرحونها. فمع ازدياد الاستخدام، سواء كان بحسن نية أو لأغراض ضارة، تتكشف المزيد من حالات الاستجابات الضارة المحتملة.


الفوائد والمخاطر المتزايدة للذكاء الاصطناعي: دعوة ملحّة لتنظيم شامل


الاستجابات الضارة وتحدياتها

تشمل هذه السلوكيات غير المرغوب فيها خطاب الكراهية وانتهاكات حقوق النشر والمحتوى الجنسي. ويزيد من تعقيد هذه المشكلة نقص اللوائح وعدم كفاية اختبار نماذج الذكاء الاصطناعي، كما أخبر الباحثون لشبكة سي إن بي سي.

يوضح خافيير راندو، الباحث في مجال الذكاء الاصطناعي والمتخصص في التعلم الآلي الخصامي: «الإجابة، بعد ما يقرب من 15 عامًا من البحث، هي لا، نحن لا نعرف كيفية القيام بذلك، ولا يبدو أننا نتحسن». إن جعل نماذج التعلم الآلي تتصرف بالطريقة المقصودة أمر صعب للغاية.

استراتيجية الفريق الأحمر في الاختبار

رغم التحديات، هناك طرق لتقييم المخاطر في الذكاء الاصطناعي، مثل استراتيجية «الفريق الأحمر». تتضمن هذه الممارسة قيام أفراد باختبار وفحص أنظمة الذكاء الاصطناعي لاكتشاف وتحديد أي ضرر محتمل، وهي طريقة شائعة في مجال الأمن السيبراني.

يلاحظ شين لونغبري، الباحث في الذكاء الاصطناعي والسياسات وقائد مبادرة أصل البيانات، أن هناك حاليًا عددًا غير كافٍ من الأشخاص الذين يعملون في الفرق الحمراء. وبينما تستخدم الشركات الناشئة للذكاء الاصطناعي الآن مقيمين من الطرف الأول أو متعاقدين من الطرف الثاني لاختبار نماذجها، فإن فتح الاختبار لأطراف ثالثة مثل المستخدمين العاديين والصحفيين والباحثين والهاكرز الأخلاقيين سيؤدي إلى تقييم أكثر قوة.

يشرح لونغبري: «بعض العيوب في الأنظمة التي اكتشفها الناس تطلبت محامين وأطباء للفحص الفعلي، وعلماء متخصصين خبراء في الموضوع لمعرفة ما إذا كان هذا عيبًا أم لا، لأن الشخص العادي ربما لا يملك أو لن يكون لديه خبرة كافية».

مشروع مونشوت كحل متكامل

مشروع مونشوت هو أحد هذه المناهج، حيث يجمع بين الحلول التقنية وآليات السياسة. أطلقته هيئة تطوير وسائل الإعلام والاتصالات في سنغافورة، وهو مجموعة أدوات لتقييم النماذج اللغوية الكبيرة طُورت مع شركاء صناعيين مثل آي بي إم وداتا روبوت في بوسطن.

تدمج مجموعة الأدوات المعايير المرجعية واختبار الفريق الأحمر وخطوط الأساس للاختبار. كما توجد آلية تقييم تسمح للشركات الناشئة للذكاء الاصطناعي بضمان أن نماذجها يمكن الوثوق بها ولا تضر بالمستخدمين، كما أخبر أنوب كومار، رئيس هندسة العملاء للبيانات والذكاء الاصطناعي في آي بي إم آسيا والمحيط الهادئ.

الحاجة لمعايير أعلى

يقول بيير ألكييه، أستاذ الإحصاء في كلية إيسيك للأعمال في آسيا والمحيط الهادئ، إن شركات التكنولوجيا تسارع حاليًا لإطلاق أحدث نماذج الذكاء الاصطناعي دون تقييم مناسب. ويضيف: «عندما تصمم شركة أدوية دواءً جديدًا، فهي بحاجة إلى شهور من الاختبارات وإثبات جدي للغاية أنه مفيد وليس ضارًا قبل أن تحصل على الموافقة من الحكومة».

تحتاج نماذج الذكاء الاصطناعي لتلبية مجموعة صارمة من الشروط قبل الموافقة عليها. والانتقال بعيدًا عن أدوات الذكاء الاصطناعي الواسعة إلى تطوير أدوات مصممة لمهام أكثر تحديدًا سيجعل من الأسهل توقع ومراقبة سوء استخدامها.

خاتمة

مع تطور تقنيات الذكاء الاصطناعي بسرعة متزايدة، يصبح من الضروري وضع معايير صارمة واختبارات شاملة لضمان سلامة هذه التقنيات. إن التعاون بين الباحثين والشركات والجهات التنظيمية أمر حيوي لضمان أن تخدم تقنيات الذكاء الاصطناعي البشرية دون التسبب في أضرار.

الأسئلة الشائعة

1. ما هي استراتيجية الفريق الأحمر في اختبار الذكاء الاصطناعي؟
هي ممارسة تتضمن قيام أفراد باختبار وفحص أنظمة الذكاء الاصطناعي لاكتشاف وتحديد أي ضرر محتمل، مستوحاة من ممارسات الأمن السيبراني.

2. لماذا تحتاج نماذج الذكاء الاصطناعي لمعايير أقوى؟
لأن الاستخدام المتزايد للذكاء الاصطناعي يكشف عن المزيد من الاستجابات الضارة مثل خطاب الكراهية وانتهاك حقوق النشر، مما يتطلب معايير صارمة لضمان السلامة.

3. ما هو مشروع مونشوت؟
هو مجموعة أدوات لتقييم النماذج اللغوية الكبيرة طورتها سنغافورة مع شركاء صناعيين، تدمج المعايير المرجعية واختبار الفريق الأحمر وخطوط الأساس للاختبار.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading