محتوى جنسي غير لائق، كيفية إشعال عود ثقاب، وأماكن العثور على السكاكين في المنزل. هذه ليست عناوين من الويب المظلم، بل موضوعات محادثة طرحتها ألعاب أطفال تم استدعاؤها مؤخراً، وتعمل بنماذج ذكاء اصطناعي متطورة مثل جي بي تي 4 أو.
محتويات المقالة:
- مقدمة
- تحرك مجلس الشيوخ الأمريكي
- محادثات خطيرة ومحتوى غير لائق
- فشل موثق وليس نظرياً
- حوادث حديثة واستدعاء منتجات
- استجابة الصناعة والتدقيق
- دور الآباء والرقابة
- أسئلة شائعة
مقدمة
تتصاعد المخاوف العالمية حول سلامة دمج الذكاء الاصطناعي في منتجات الأطفال، حيث كشفت تقارير حديثة عن تجاوزات خطيرة في المحتوى الذي تقدمه الألعاب الذكية. هذه الألعاب، التي يفترض أن تكون رفيقاً مسلياً وتعليمياً، تحولت في بعض الحالات إلى مصدر خطر يعرض الأطفال لمحتوى غير مناسب لأعمارهم أو يحرضهم على سلوكيات مؤذية.
تحرك مجلس الشيوخ الأمريكي
في استجابة حازمة، أرسل السيناتور مارشا بلاكبيرن (جمهورية من تينيسي) والسيناتور ريتشارد بلومنتال (ديمقراطي من كونيتيكت) رسالة رسمية يوم الثلاثاء إلى شركات الألعاب المعنية. تضمنت الرسالة قائمة بالأسئلة والمخاوف، مع تحديد موعد نهائي للرد بحلول 6 يناير 2026.
كتب أعضاء مجلس الشيوخ بلهجة شديدة: “العديد من هذه الألعاب لا تقدم لعباً تفاعلياً بريئاً، بل تعرض الأطفال لمحتوى غير لائق، ومخاطر الخصوصية، وتكتيكات تفاعل تلاعبية”. وأضافوا أن هذه الشركات تدفع بهذه التكنولوجيا للأطفال الأصغر سناً الذين يفتقرون للقدرة على تمييز الخطر.
محادثات خطيرة ومحتوى غير لائق
المخاوف ليست مجرد تكهنات. فقد أشارت الرسالة إلى أن روبوتات الدردشة المدمجة في هذه الألعاب قد شجعت أطفالاً في السابق على إيذاء النفس. والآن، تظهر تقارير عن ألعاب تقدم نصائح حول أماكن إخفاء السكاكين في المنزل أو كيفية التعامل مع النار، بالإضافة إلى موضوعات جنسية صريحة لا تناسب براءة الطفولة.
فشل موثق وليس نظرياً
أكد المشرعون أن هذه الحوادث “ليست سيناريوهات نظرية لأسوأ الحالات، بل هي إخفاقات موثقة تم كشفها من خلال اختبارات واقعية”. هذا الانتقال من المخاطر المحتملة إلى الأضرار الفعلية هو ما دفع الكونغرس للتدخل السريع والمطالبة بإجابات واضحة حول بروتوكولات الأمان المتبعة في هذه المنتجات.
حوادث حديثة واستدعاء منتجات
سلطت الأضواء مؤخراً على الألعاب المدعومة بالذكاء الاصطناعي بعد سلسلة من التقارير المقلقة. في الشهر الماضي، اضطرت شركة “فولو توي” (FoloToy) السنغافورية لتعليق مبيعات دبدوبها الذكي “كوما” مؤقتاً، بعد أن اكتشف باحثون أنه يقدم نصائح جنسية وسيناريوهات غير لائقة. وقد أعادت الشركة طرح اللعبة بعد إجراء تدقيق داخلي للسلامة.
وفي هذا الأسبوع، نشر باحثون نتائج تفيد بأن “الأرنب الذكي” من شركة “أليلو” (Alilo) ناقش موضوعات جنسية صريحة مع المستخدمين، مما زاد من حدة الانتقادات الموجهة لهذه الصناعة الناشئة.
استجابة الصناعة والتدقيق
تواجه شركات الألعاب الآن ضغوطاً هائلة لإثبات أن منتجاتها آمنة. استخدام نماذج لغوية قوية مثل تلك المقدمة من أوبن أي آي يتطلب طبقات حماية إضافية (Guardrails) صارمة للغاية عند توجيه المنتج للأطفال. يبدو أن العديد من الشركات فشلت في تطبيق هذه الحمايات بشكل كافٍ قبل طرح المنتجات في الأسواق.
دور الآباء والرقابة
تضع هذه الحوادث عبئاً جديداً على الآباء، الذين يجب عليهم الآن التدقيق ليس فقط في المواد الفيزيائية للألعاب، بل في “عقلها” الإلكتروني ومحتوى محادثاتها. الخبراء ينصحون بمراقبة لصيقة لأي لعبة تتصل بالإنترنت وتحتوي على ميزات دردشة ذكية.
أسئلة شائعة
السؤال: ما هي الألعاب التي تم التحذير منها؟
الإجابة: شملت التقارير ألعاباً مثل دبدوب “كوما” من FoloToy والأرنب الذكي من Alilo، ولكن التحذير يشمل عموم الألعاب التي تستخدم نماذج لغوية مفتوحة دون قيود كافية.
السؤال: هل الذكاء الاصطناعي آمن للأطفال؟
الإجابة: يمكن أن يكون آمناً ومفيداً إذا تم تصميمه بقيود صارمة ومحتوى موجه، لكن المنتجات الحالية التي تعتمد على نماذج عامة أثبتت وجود ثغرات خطيرة.
السؤال: ماذا فعلت الحكومة الأمريكية تجاه هذا الأمر؟
الإجابة: أرسل أعضاء مجلس الشيوخ استفسارات رسمية للشركات وطلبوا توضيحات حول إجراءات السلامة، مع احتمال سن تشريعات أكثر صرامة في المستقبل.