في كشف صادم يسلط الضوء على المخاطر المتزايدة لإساءة استخدام الذكاء الاصطناعي، حذرت هيئة رقابية لحماية الأطفال من وجود موقع لروبوتات المحادثة يقدم سيناريوهات صريحة مع شخصيات أطفال، ويعرض صوراً غير قانونية للاعتداء على الأطفال تم إنشاؤها بواسطة الذكاء الاصطناعي. أثار هذا التقرير دعوات عاجلة لفرض إرشادات سلامة صارمة على شركات الذكاء الاصطناعي.
محتويات المقالة:
- مقدمة: إنذار خطير من العالم الرقمي
- تفاصيل الكشف الصادم من مؤسسة IWF
- كيف يتم استخدام الذكاء الاصطناعي لإنشاء المحتوى المؤذي؟
- دعوات عاجلة للتحرك الحكومي والتشريعي
- حجم المشكلة: زيادة بنسبة 400%
- الإطار القانوني: هل قانون السلامة على الإنترنت كافٍ؟
- الخاتمة: سباق بين الابتكار والسلامة
- أسئلة شائعة
مقدمة: إنذار خطير من العالم الرقمي
مع كل وعد يحمله الذكاء الاصطناعي بالتقدم والابتكار، يظهر جانب مظلم يهدد الفئات الأكثر ضعفاً في مجتمعنا. أثار تقرير حديث صادر عن هيئة رقابية لحماية الأطفال مخاوف جديدة وعميقة حول كيفية استغلال هذه التكنولوجيا القوية في إنشاء وتوزيع محتوى مروع، مما يضع الحكومات وشركات التكنولوجيا أمام مسؤولية ملحة للتحرك بسرعة وحزم.
تفاصيل الكشف الصادم من مؤسسة IWF
أعلنت مؤسسة مراقبة الإنترنت (IWF)، وهي هيئة رائدة في مجال سلامة الأطفال، أنها تلقت تنبيهاً بشأن موقع لروبوتات المحادثة يقدم للمستخدمين عدداً من السيناريوهات المروعة. شملت هذه السيناريوهات عناوين مثل «بائعة هوى طفلة في فندق»، «ممارسة الجنس مع طفلك أثناء سفر زوجتك»، و«طفل ومعلم بمفردهما بعد الفصل». والأخطر من ذلك، أنه في بعض الحالات، كانت أيقونات روبوتات المحادثة تتوسع عند النقر عليها لتصبح صوراً كاملة الشاشة لمواد الاعتداء الجنسي على الأطفال، وتظل كخلفية للمحادثات اللاحقة بين الروبوت والمستخدم.
كيف يتم استخدام الذكاء الاصطناعي لإنشاء المحتوى المؤذي؟
أكدت مؤسسة IWF أنها عثرت على 17 صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، وكانت واقعية لدرجة يمكن اعتبارها مواد اعتداء جنسي على الأطفال بموجب قانون حماية الأطفال. كما يُمنح مستخدمو الموقع، الذي لم يتم الكشف عن اسمه لأسباب تتعلق بالسلامة، خيار إنشاء المزيد من الصور المشابهة للمحتوى غير القانوني المعروض بالفعل. هذا يوضح كيف يمكن استخدام أدوات الذكاء الاصطناعي ليس فقط لعرض المحتوى المؤذي، ولكن أيضاً لإنتاجه بكميات كبيرة وبسهولة مقلقة.
دعوات عاجلة للتحرك الحكومي والتشريعي
في أعقاب هذا التقرير، دعت IWF إلى ضرورة أن تتطلب أي لائحة تنظيمية قادمة للذكاء الاصطناعي دمج إرشادات حماية الطفل في نماذج الذكاء الاصطناعي منذ البداية. وقالت كيري سميث، الرئيسة التنفيذية للمؤسسة: «الجرائم الجنائية الجديدة في مشروع قانون الجريمة والشرطة القادم لا يمكن أن تأتي بالسرعة الكافية. ولكن يجب القيام بالمزيد، وبشكل أسرع». كما انضمت جمعية NSPCC الخيرية لحماية الأطفال إلى هذه الدعوات، حيث قال رئيسها التنفيذي، كريس شيروود: «يجب على شركات التكنولوجيا إدخال تدابير قوية لضمان عدم إهمال سلامة الأطفال، ويجب على الحكومة تنفيذ واجب رعاية قانوني للأطفال لمطوري الذكاء الاصطناعي».
حجم المشكلة: زيادة بنسبة 400%
أبلغت IWF عن زيادة ملحوظة في تقارير المواد المسيئة التي تم إنشاؤها بواسطة الذكاء الاصطناعي في الأشهر الستة الأولى من هذا العام، بزيادة قدرها 400% عن نفس الفترة من العام الماضي. ويعود هذا الارتفاع، خاصة في محتوى الفيديو، إلى التحسينات في التكنولوجيا التي تقف وراء الصور، مما يجعل إنشاء محتوى مزيف وواقعي أسهل من أي وقت مضى.
الإطار القانوني: هل قانون السلامة على الإنترنت كافٍ؟
يقع روبوت المحادثة الذي أنشأه المستخدم ضمن نطاق قانون السلامة على الإنترنت في المملكة المتحدة، والذي يمكن بموجبه معاقبة المواقع بغرامات بملايين الجنيهات أو، في الحالات القصوى، حجبها. وقالت هيئة «أوفكوم»، الجهة المنظمة المكلفة بتنفيذ القانون، إن «مكافحة استغلال الأطفال والاعتداء عليهم جنسياً هي أولوية قصوى لأوفكوم». تم الإبلاغ عن المحتوى إلى المركز الوطني للأطفال المفقودين والمستغلين في الولايات المتحدة لأنه مستضاف على خوادم أمريكية، ويبدو أن الموقع مملوك لشركة مقرها في الصين، مما يبرز التحديات القضائية الدولية في مكافحة هذه الجرائم.
الخاتمة: سباق بين الابتكار والسلامة
يسلط هذا الحادث المروع الضوء على حقيقة لا مفر منها: كلما أصبحت أدوات الذكاء الاصطناعي أقوى وأكثر سهولة في الوصول، زادت احتمالية استخدامها لأغراض ضارة. إن السباق الآن ليس فقط لتحقيق الابتكار التكنولوجي، بل لضمان تطوير ونشر هذه التكنولوجيا بطريقة لا تعرض أفراد المجتمع الأكثر ضعفاً للخطر. إنها مسؤولية جماعية تقع على عاتق المطورين والشركات والحكومات والمجتمع بأسره.
أسئلة شائعة
س1: ما هي مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟
ج1: هي صور أو مقاطع فيديو واقعية تصور الاعتداء على الأطفال، ولكنها لم تُنشأ باستخدام كاميرا، بل تم توليدها بالكامل بواسطة برامج الذكاء الاصطناعي. على الرغم من أنها ليست لأطفال حقيقيين، إلا أنها لا تزال غير قانونية وتساهم في تطبيع وإدامة هذه الجرائم.
س2: كيف يمكن لشركات الذكاء الاصطناعي المساعدة في منع ذلك؟
ج2: يمكن للشركات بناء ضمانات أمان في نماذجها لمنع إنشاء محتوى ضار، واستخدام فلاتر لتحديد وحذف المحتوى غير القانوني، والعمل مع هيئات إنفاذ القانون للإبلاغ عن المستخدمين الذين يحاولون إنشاء أو توزيع مثل هذه المواد.
س3: ما الذي يمكنني فعله إذا صادفت مثل هذا المحتوى عبر الإنترنت؟
ج3: يجب عليك عدم مشاركة المحتوى والإبلاغ عنه فوراً إلى المنصة التي وجدته عليها، وإلى السلطات المحلية أو منظمات حماية الطفل مثل مؤسسة مراقبة الإنترنت (IWF).