في أحدث جهودها للاستجابة للمخاوف المتنامية، قامت شركة أوبن أي آي بتحديث إرشاداتها الصارمة حول كيفية تصرف نماذج الذكاء الاصطناعي مع المستخدمين الذين تقل أعمارهم عن 18 عاماً. تأتي هذه الخطوة وسط تساؤلات جدية حول مدى نجاح هذه السياسات في حماية المراهقين على أرض الواقع.
محتويات المقالة:
- مقدمة
- تدقيق متزايد وضغوط قانونية
- إرشادات النموذج الجديدة
- حدود صارمة للمراهقين
- مبادئ السلامة الأربعة
- ردود فعل الخبراء
- الرقابة في الوقت الفعلي
- استباق التشريعات المستقبلية
- الخاتمة
- أسئلة شائعة
مقدمة
تواجه صناعة الذكاء الاصطناعي بشكل عام، وشركة أوبن أي آي بشكل خاص، موجة متزايدة من التدقيق من قبل صناع السياسات، والمعلمين، والمدافعين عن سلامة الأطفال. وقد تصاعد هذا الاهتمام بعد تقارير مأساوية عن وفاة عدد من المراهقين انتحاراً بعد انخراطهم في محادثات مطولة ومعقدة مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي.
يُعتبر الجيل “زد” (Gen Z)، الذي يشمل المواليد ما بين 1997 و2012، الشريحة الأنشط استخداماً لروبوت الدردشة الخاص بأوبن أي آي. ومع الصفقة الأخيرة التي أبرمتها الشركة مع ديزني، من المتوقع أن يتدفق المزيد من المستخدمين الصغار إلى المنصة، التي تتيح لهم القيام بكل شيء من حل الواجبات المدرسية إلى توليد الصور والفيديوهات.
تدقيق متزايد وضغوط قانونية
في الأسبوع الماضي، وقّع 42 مدعياً عاماً في الولايات المتحدة رسالة موجهة لشركات التكنولوجيا الكبرى، يحثونهم فيها على تنفيذ ضمانات قوية على روبوتات الدردشة لحماية الأطفال والفئات الضعيفة. وفي الوقت الذي تعمل فيه إدارة ترامب على صياغة المعيار الفيدرالي لتنظيم الذكاء الاصطناعي، قدم صناع سياسات مثل السيناتور جوش هاولي تشريعات قد تصل إلى حد حظر تفاعل القاصرين مع روبوتات الدردشة تماماً.
إرشادات النموذج الجديدة
قامت أوبن أي آي بتحديث وثيقة “مواصفات النموذج” (Model Spec)، التي تحدد قواعد سلوك نماذج اللغة الكبيرة الخاصة بها. تبني هذه التحديثات على المواصفات الحالية التي تحظر توليد محتوى جنسي يشمل القاصرين أو تشجيع إيذاء النفس. وأوضحت الشركة أن هذه القواعد ستعمل جنباً إلى جنب مع نموذج قادم للتنبؤ بالعمر (Age-Prediction Model)، والذي سيحدد تلقائياً عندما ينتمي الحساب لمستخدم قاصر ليقوم بتفعيل ضمانات السلامة المناسبة.
حدود صارمة للمراهقين
مقارنة بالمستخدمين البالغين، ستخضع النماذج لقواعد أكثر صرامة عند استخدامها من قبل مراهق. تم توجيه النماذج لتجنب “لعب الأدوار الرومانسية الغامرة”، والحميمية بضمير المتكلم، ولعب الأدوار الجنسية أو العنيفة حتى عندما لا تكون صريحة أو مصورة.
كما تدعو المواصفات إلى توخي الحذر الشديد حول مواضيع حساسة مثل صورة الجسد واضطرابات الأكل، وتوجه النماذج لإعطاء الأولوية للتواصل حول السلامة بدلاً من حرية المستخدم عندما ينطوي الأمر على ضرر محتمل، وتجنب تقديم نصائح قد تساعد المراهقين على إخفاء سلوكيات غير آمنة عن ذويهم.
مبادئ السلامة الأربعة
تقول أوبن أي آي إن ممارسات السلامة الرئيسية للمراهقين مدعومة بأربعة مبادئ أساسية:
- وضع سلامة المراهقين أولاً: حتى عندما تتعارض اهتمامات المستخدم الأخرى مثل “الحرية الفكرية القصوى” مع مخاوف السلامة.
- تعزيز الدعم الواقعي: توجيه المراهقين نحو العائلة والأصدقاء والمهنيين المحليين للحصول على الدعم النفسي.
- الاحترام وعدم التعالي: معاملة المراهقين بدفء واحترام، وتجنب التحدث إليهم بنبرة متعالية أو معاملتهم كبالغين.
- الشفافية والوضوح: شرح ما يمكن وما لا يمكن للمساعد فعله، وتذكير المراهقين باستمرار بأنه ذكاء اصطناعي وليس إنساناً.
ردود فعل الخبراء
رحبت ليلي لي، محامية الخصوصية والذكاء الاصطناعي، بهذه الخطوات، قائلة إنه من المشجع رؤية الروبوت يرفض الانخراط في سلوكيات ضارة. ومع ذلك، أشار خبراء آخرون إلى أن “الأفعال أبلغ من الأقوال”. ستيفن أدلر، باحث السلامة السابق في أوبن أي آي، أكد أن النوايا تظل مجرد كلمات ما لم تقم الشركة بقياس السلوكيات الفعلية للنظام.
كما أثيرت مخاوف حول ظاهرة “التملق” (Sycophancy)، حيث يميل الذكاء الاصطناعي للموافقة المفرطة مع المستخدم، مما قد يؤدي لتعزيز مشاعر سلبية لدى المراهقين، كما حدث في قضايا سابقة لمراهقين عانوا من مشاكل نفسية تفاقمت بسبب محادثات الروبوت.
الرقابة في الوقت الفعلي
تستخدم أوبن أي آي الآن مصنفات آلية لتقييم المحتوى النصي والمرئي والصوتي في الوقت الفعلي. صُممت هذه الأنظمة لاكتشاف وحظر المحتوى المتعلق باستغلال الأطفال، وتصفية الموضوعات الحساسة، وتحديد إيذاء النفس. وفي الحالات التي يرصد فيها النظام تهديداً خطيراً للسلامة، يقوم فريق بشري بمراجعة المحتوى وقد يتم إخطار الوالدين.
استباق التشريعات المستقبلية
يرى الخبراء أن هذه الإرشادات تجعل أوبن أي آي مستعدة لاستباق تشريعات قادمة، مثل قانون “SB 243” في كاليفورنيا الذي سيدخل حيز التنفيذ في 2027. يعكس النص الجديد في مواصفات النموذج بعض متطلبات القانون الرئيسية، مما يشير إلى محاولة الشركة لتنظيم نفسها قبل أن تفرض عليها اللوائح الحكومية قيوداً أشد.
الخاتمة
تمثل هذه القواعد الجديدة خطوة هامة نحو بيئة رقمية أكثر أماناً للمراهقين، لكن الاختبار الحقيقي سيكون في التطبيق. ستحتاج أوبن أي آي لإثبات أن أنظمتها قادرة فعلاً على التمييز وحماية المستخدمين الضعفاء دون الاعتماد فقط على الوعود النظرية.
أسئلة شائعة
السؤال: ما هي القواعد الجديدة للمراهقين في تشات جي بي تي؟
الإجابة: تمنع القواعد الجديدة الروبوت من الانخراط في لعب أدوار رومانسية أو عنيفة، وتفرض قيوداً صارمة على مواضيع إيذاء النفس وصورة الجسد.
السؤال: كيف تعرف أوبن أي آي أن المستخدم مراهق؟
الإجابة: تعمل الشركة على تطوير تقنية “تنبؤ بالعمر” لتحديد القاصرين تلقائياً وتفعيل إعدادات الأمان المناسبة لهم.
السؤال: هل سيتم إبلاغ الوالدين بنشاط أبنائهم؟
الإجابة: تشير السياسات إلى أنه في حالات رصد تهديد خطير للسلامة أو “ضيق حاد”، قد يتم إخطار الوالدين بعد مراجعة بشرية.
الكلمة المفتاحية: سلامة المراهقين في الذكاء الاصطناعي