أثار خلل تقني في نظام توليد الصور لدى شات جي بي تي جدلًا واسعًا على منصات التواصل الاجتماعي، حيث تبيّن أنّ الذكاء الاصطناعي يسمح بإنشاء صور «رجال مثيرين» بينما يرفض إنشاء صور «نساء مثيرات» معللًا ذلك بمخالفة السياسات. في هذا المقال، نناقش التفاصيل والخلفية وراء هذه الواقعة ضمن إطار «الأخطاء البرمجية في شات جي بي تي».
محتويات المقالة:
- مقدمة حول الخلل البرمجي
- تفاصيل المشكلة وردود الفعل
- أسباب ظهور التحيز في النظام
- استجابة الشركة المطورة
- الآثار والتداعيات على صناعة الذكاء الاصطناعي
- خاتمة
- الأسئلة الشائعة
مقدمة حول الخلل البرمجي
منذ إطلاق خاصية توليد الصور الجديدة في شات جي بي تي، لفت المستخدمون الانتباه إلى ظاهرة غير متوقعة تمثلت في عدم توازن استجابة النظام لطلبات تتعلق بصور أشخاص «مثيرين». ففي حين استطاع المستخدمون الحصول على صور لرجال توصف بالمظهر الجذاب أو المثير، واجه آخرون رفضًا صريحًا من الذكاء الاصطناعي لتوليد صور نساء بالوصف ذاته.
يُعزى هذا الرفض إلى بنود المحتوى التي تحظر التعرض لمواضيع إباحية أو مسيئة، غير أنّ التبرير الذي قدمه النظام بدا غير منسجم بين الجنسين.
تفاصيل المشكلة وردود الفعل
وقد أثار هذا الموقف حيرة المستخدمين والمطوّرين على حد سواء؛ إذ يرجع السبب الظاهري إلى طريقة برمجة خوارزميات معالجة النص ومدى تفسيرها لمعايير «الإثارة» عند الحديث عن الرجال والنساء. تَعتبر الخوارزمية – وفقًا لنص الرسائل التي نشرها المستخدمون – أنّ وصف «رجل مثير» قد يتصل بالثقة والجاذبية والأناقة، بينما يُؤوَّل وصف «امرأة مثيرة» على نحوٍ أقرب إلى الإساءة أو الاستغلال.
هذا التفسير الجزئي أثار انتقادات تتعلق بالتحيز البرمجي وازدواجية المعايير.
أسباب ظهور التحيز في النظام
يرى بعض الخبراء أنّ سبب الخلل قد يعود إلى البيانات المستخدمة في تدريب النموذج، والتي تُظهر ميلًا مجتمعيًا عامًّا نحو تفسير مصطلحات «الإثارة» بنحوٍ مختلف عند الحديث عن النساء مقارنةً بالرجال. ومن المعروف أنّ نماذج الذكاء الاصطناعي تعتمد بشكل أساسي على البيانات التي دُرّبت عليها، ما يجعلها تعكس – ولو بشكل غير واعٍ – أنماطًا متوارثة من الثقافة المجتمعية.
بالتالي، يبرز التساؤل حول المسؤولية الأخلاقية للشركات في تنقية البيانات وتوجيه النماذج لفهم أعمق للمفاهيم الجنسية والجندرية.
استجابة الشركة المطورة
من جهته، سارع الرئيس التنفيذي للشركة المطورة لشات جي بي تي إلى التعليق على المشكلة عبر منصة تواصل اجتماعي، معترفًا بأنّ هذا السلوك غير مقصود وأنّه يمثل «خللًا تقنيًا» ينبغي إصلاحه. وأشار إلى أنّ الفريق يعمل على تصحيح الخوارزميات لتسمح للمستخدمين بإنشاء محتويات متساوية في وصفها للجنسين ضمن الأطر المقبولة من السياسة العامة.
كما أثنى البعض على سرعة تجاوب الشركة، في حين ما زال آخرون يطالبون بتوضيحات أعمق حول آليات تجنّب مثل هذه التمييزات المستقبلية.
الآثار والتداعيات على صناعة الذكاء الاصطناعي
على الرغم من أنّ الأمر بدا في البداية وكأنه خطأ صغير، إلا أنّه فتح بابًا لحوار أوسع حول دور الذكاء الاصطناعي في تشكيل الصور النمطية والقوالب الاجتماعية. ففي الوقت الذي يُنظر فيه إلى الذكاء الاصطناعي على أنّه كيان حيادي وعادل، تثبت التجارب الواقعية مرارًا أنّ التكنولوجيا يمكنها تكرار التحيز البشري ما لم تُتخذ تدابير جادة لتعديله.
لم تقف الأمور عند هذا الحد؛ حيث كشف البعض عن زوايا أخرى للمشكلة، مثل الصور المتعلقة بمحتوى حسّاس أو عنيف أو يستهدف شخصيات عامة. وقد أكدت الشركة أنّها تضع قيودًا مشددة على إنشاء صور تنتهك سياسات الخصوصية أو تحرّض على الكراهية والعنف.
ومع ذلك، يُعتبر تحديد خطوط فاصلة بين حرية الإبداع والمحظورات تحديًا دائمًا لأي منصة تعمل بالذكاء الاصطناعي، خاصة مع تباين التفسيرات الثقافية والأخلاقية حول العالم.
خاتمة
من ناحية أخرى، أعلن الفريق التقني أنّه أجرى تحديثات عاجلة لإعادة برمجة النموذج، مؤكدًا أنّ أي خلل في تمييز المحتوى بين الرجال والنساء هو «غير متعمّد» وسيتم إصلاحه في أسرع وقت. وختم الرئيس التنفيذي بقوله إنّ «الهدف النهائي هو إتاحة حرية إبداعية واسعة للجميع مع الحفاظ على إطار السلامة واحترام المعايير الأخلاقية».
بالنسبة للكثيرين، تعكس هذه الواقعة درسًا إضافيًا حول أهمية الفهم العميق لكيفية عمل نماذج الذكاء الاصطناعي. فبينما يتزايد اعتماد المجتمعات على هذه التقنيات لإنتاج نصوص أو صور، تغدو مسألة كشف الانحيازات والتمييز أمرًا لا يمكن تجاهله. لذلك، تتجه الأنظار نحو الشركات والمطوّرين للعمل من أجل ضمان أن تكون التكنولوجيا في خدمة الجميع على نحو منصف وشفاف.
الأسئلة الشائعة
1. ما هو الخلل الذي واجهه شات جي بي تي تحديدًا؟
رفض إنشاء صور «نساء مثيرات» بينما سمح بإنشاء صور «رجال مثيرين»، ما اعتُبر تمييزًا في تفسير المحتوى.
2. كيف برر الذكاء الاصطناعي هذا الرفض؟
علّل بأنّ وصف «امرأة مثيرة» قد يندرج ضمن المحتوى المرفوض، في حين اعتبر وصف «رجل مثير» ذا طابع فني أو رمزي.
3. هل اعترفت الشركة بالمشكلة؟
نعم، وصف الرئيس التنفيذي ذلك بأنه «خطأ تقني» وأكد العمل على إصلاحه.
4. هل هناك أسباب محتملة لظهور هذا الانحياز؟
قد تكون البيانات التدريبية والتحيّزات المجتمعية المتوارثة هي السبب الرئيس في هذا الخلل.
5. ما هي حدود المسموح في توليد الصور؟
يمنع المحتوى الذي يروج للانتهاكات الجنسية أو العنف أو التجاوز الأخلاقي، بما في ذلك صور الشخصيات العامة بشكل يتعارض مع سياسة المنصة.
6. هل الحادثة تخص محتوى إثارة فقط؟
لا، فقد أشارت تقارير إلى وجود مشاكل أخرى في تصنيف الصور والرقابة على محتويات حساسة أو صادمة.
7. كيف ستتم معالجة هذه المشكلة؟
يعمل الفريق التقني على تحديث الخوارزميات وضبط البيانات التدريبية لضمان توازن وعدل في تفسير الطلبات.