بازينجا

تسريبات xAI Grok

تسريبات xAI تكشف عن استخدام منصة «جروك» في محتوى مسيء

Written by

Picture of فريقنا

فريقنا

Communications Consultant

في الوقت الذي وعد فيه إيلون ماسك بأن يكون روبوت الدردشة «جروك» بديلاً «باحثاً عن الحقيقة القصوى» و«مناهضاً لليقظة الثقافية»، تكشف شهادات صادمة من عاملين حاليين وسابقين في شركة xAI عن واقع مختلف تماماً. أفاد هؤلاء بأنهم واجهوا بانتظام مواداً جنسية صريحة، بما في ذلك مواد تم إنشاؤها بواسطة الذكاء الاصطناعي تتعلق بالاعتداء الجنسي على الأطفال، مما يثير تساؤلات خطيرة حول سلامة المنصة.

في الوقت الذي وعد فيه إيلون ماسك بأن يكون روبوت الدردشة «جروك» بديلاً «باحثاً عن الحقيقة القصوى» و«مناهضاً لليقظة الثقافية»، تكشف شهادات صادمة من عاملين حاليين وسابقين في شركة xAI عن واقع مختلف تماماً. أفاد هؤلاء بأنهم واجهوا بانتظام مواداً جنسية صريحة، بما في ذلك مواد تم إنشاؤها بواسطة الذكاء الاصطناعي تتعلق بالاعتداء الجنسي على الأطفال، مما يثير تساؤلات خطيرة حول سلامة المنصة.

محتويات المقالة:

مقدمة: من الحقيقة القصوى إلى الواقع المظلم

عندما دخل إيلون ماسك عالم الذكاء الاصطناعي، وعد بتسخير التكنولوجيا لإنشاء بديل لـ ChatGPT. ولكن بدلاً من ذلك، يبدو أن شركته xAI قد حولت روبوت الدردشة الداخلي «جروك» إلى أداة للمحادثات المشحونة جنسياً. والآن، يبدو أن مستخدمي xAI يستخدمون المنصة لأسوأ الأشياء التي يمكن تخيلها.

شهادات مسربة: «عليك أن تكون ذا جلد سميك»

أخبر اثنا عشر عاملاً حالياً وسابقاً موقع «بزنس إنسايدر» أنهم واجهوا بانتظام مواداً جنسية صريحة، بما في ذلك مواد تم إنشاؤها بواسطة الذكاء الاصطناعي تتعلق بالاعتداء الجنسي على الأطفال (CSAM)، في عملهم للشركة. قال عامل سابق، استقال بسبب الكم الهائل من المواد المزعجة التي واجهها: «عليك أن تكون ذا جلد سميك للعمل هنا، وحتى مع ذلك لا تشعر بالرضا». وقال عامل سابق آخر: «لقد أصابني بالغثيان بالفعل».

مشكلة المحتوى الجنسي: خط رفيع بين الحرية والضرر

في حين أن المنصة ليست وحدها في التعامل مع تدفق المواد المخالفة، فإن تركيز xAI على السماح بالمحتوى الجنسي بشكل عام قد يجعل الوضع أسوأ. قالت ريانا بيفيركورن، باحثة سياسات التكنولوجيا في جامعة ستانفورد: «إذا لم تضع خطاً أحمر صارماً عند أي شيء مزعج، فستواجه مشكلة أكثر تعقيداً مع المزيد من المناطق الرمادية». وأضافت فالون ماكنولتي، المديرة التنفيذية للمركز الوطني للأطفال المفقودين والمستغلين (NCMEC): «إذا كانت شركة تنشئ نموذجاً يسمح بالتعري أو المحتوى الجنسي الصريح، فهذا أكثر دقة بكثير من نموذج لديه قواعد صارمة. عليهم اتخاذ تدابير قوية جداً حتى لا يخرج أي شيء يتعلق بالأطفال على الإطلاق».

تزايد مقلق في مواد الاعتداء على الأطفال المصنوعة بالذكاء الاصطناعي

تعتبر مواد الاعتداء الجنسي على الأطفال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي مشكلة على مستوى الصناعة بأكملها. وقد بدأت وزارة العدل الأمريكية بالفعل في ملاحقة الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي لإنشاء محتوى إشكالي يتعلق بالقصر. الأرقام تحكي قصة مقلقة. تلقت منظمة NCMEC أكثر من 440,000 تقرير عن مواد اعتداء جنسي على الأطفال تم إنشاؤها بواسطة الذكاء الاصطناعي حتى 30 يونيو، مقارنة بأقل من 6,000 تقرير خلال نفس الفترة من العام الماضي.

الفوضى في xAI: تسريح العمال وقيادة غير متوقعة

تعاني xAI من الفوضى والجدل. قامت الشركة بتسريح 500 عامل، بما في ذلك موظفين رفيعي المستوى والمسؤولين عن تصنيف البيانات، في وقت سابق من هذا الشهر. ويقود القسم المسؤول عن تدريب «جروك» الآن طالب جامعي تخرج من المدرسة الثانوية في عام 2023، مما يثير تساؤلات حول الخبرة والإشراف داخل الشركة.

غياب التقارير الرسمية يثير القلق

أبلغ منافسو xAI، مثل OpenAI و Anthropic، عن حالات مواد اعتداء جنسي على الأطفال تم إنشاؤها بواسطة الذكاء الاصطناعي إلى NCMEC. لكن وفقاً للمنظمة، لم تقدم xAI تقريراً واحداً لعام 2024، على الرغم من أن NCMEC تلقت ما مجموعه 67,000 تقرير يتعلق بالذكاء الاصطناعي التوليدي العام الماضي. هذا النقص في الإبلاغ يثير قلقاً كبيراً حول التزام الشركة بمكافحة هذه المواد الخطرة.

الخاتمة: مسؤولية المنصات في مواجهة المحتوى الضار

تسلط هذه التسريبات الضوء على المسؤولية الهائلة التي تقع على عاتق شركات الذكاء الاصطناعي في مراقبة منصاتها وحماية المستخدمين، خاصة الأطفال. إن الوعد بالحرية المطلقة في التعبير لا يمكن أن يأتي على حساب السلامة. وبينما تستمر تكنولوجيا الذكاء الاصطناعي في التطور، يجب أن يتطور معها التزام الصناعة بالأخلاق والمسؤولية الاجتماعية، وإلا فإننا نخاطر بإنشاء أدوات قوية يمكن أن تسبب ضرراً لا يمكن إصلاحه.

أسئلة شائعة

س1: ما هو «جروك» (Grok)؟
ج1: هو روبوت محادثة يعمل بالذكاء الاصطناعي طورته شركة xAI المملوكة لإيلون ماسك. تم تسويقه كبديل أقل تقييداً لروبوتات الدردشة الأخرى مثل ChatGPT.

س2: هل يعني هذا أن «جروك» مصمم لإنشاء محتوى ضار؟
ج2: ليس بالضرورة. لكن نهج الشركة الأكثر تساهلاً تجاه المحتوى الجنسي بشكل عام قد يخلق ثغرات وبيئة يمكن استغلالها من قبل المستخدمين ذوي النوايا السيئة لإنشاء مواد غير قانونية وخطيرة.

س3: ما هي مسؤولية شركة xAI القانونية؟
ج3: تتحمل الشركات التكنولوجية مسؤولية قانونية وأخلاقية لمنع استخدام منصاتها في أنشطة غير قانونية، خاصة تلك التي تتعلق بإيذاء الأطفال. عدم الإبلاغ عن مثل هذه الحالات يمكن أن يعرض الشركة لمساءلة قانونية خطيرة.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading