بازينجا

مخاطر الذكاء الاصطناعي التوليدي

ارتفاع مقلق بنسبة 400% في صفحات الويب التي تحتوي على مواد استغلال الأطفال المولدة بالذكاء الاصطناعي

Written by

Picture of فريقنا

فريقنا

Communications Consultant

في تقرير صادم، كشفت مؤسسة مراقبة الإنترنت عن زيادة هائلة في محتوى استغلال الأطفال الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، والذي أصبح واقعيًا لدرجة يصعب تمييزه عن اللقطات الحقيقية.

في تقرير صادم، كشفت مؤسسة مراقبة الإنترنت عن زيادة هائلة في محتوى استغلال الأطفال الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، والذي أصبح واقعيًا لدرجة يصعب تمييزه عن اللقطات الحقيقية.

مقدمة: جانب مظلم لثورة التكنولوجيا

ارتفعت تقارير صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي بنسبة 400% في النصف الأول من عام 2025، وفقًا لبيانات جديدة من مؤسسة مراقبة الإنترنت (IWF) غير الربحية ومقرها المملكة المتحدة. سجلت المنظمة، التي تراقب مواد الاعتداء الجنسي على الأطفال عبر الإنترنت، 210 صفحات ويب تحتوي على مواد تم إنشاؤها بواسطة الذكاء الاصطناعي في الأشهر الستة الأولى من عام 2025، ارتفاعًا من 42 في نفس الفترة من العام السابق. هذه الأرقام المقلقة تسلط الضوء على أحد أخطر جوانب انتشار الذكاء الاصطناعي التوليدي غير المنظم.

واقعية مخيفة وضرر حقيقي

على تلك الصفحات، كان هناك 1,286 مقطع فيديو، ارتفاعًا من مقطعي فيديو فقط في عام 2024. وقالت IWF إن غالبية هذا المحتوى كان واقعيًا لدرجة أنه كان لا بد من التعامل معه بموجب قانون المملكة المتحدة كما لو كان لقطات فعلية. تم تصنيف ما يقرب من 78% من مقاطع الفيديو – 1,006 في المجموع – على أنها «الفئة أ»، وهي أشد المستويات، والتي يمكن أن تشمل تصوير الاغتصاب والتعذيب الجنسي. شملت معظم مقاطع الفيديو فتيات، وفي بعض الحالات استخدمت صور أطفال حقيقيين.

قال ديريك راي-هيل، الرئيس التنفيذي المؤقت لـ IWF: «تمامًا كما رأينا مع الصور الثابتة، وصلت مقاطع فيديو الاعتداء الجنسي على الأطفال بالذكاء الاصطناعي الآن إلى النقطة التي لا يمكن تمييزها فيها عن الأفلام الحقيقية. الأطفال الذين يتم تصويرهم غالبًا ما يكونون حقيقيين ويمكن التعرف عليهم، والضرر الذي تسببه هذه المواد حقيقي، والتهديد الذي تشكله يهدد بالتصاعد أكثر».

أسباب الانتشار وجهود المكافحة

قالت IWF إنها لا تعرف بالضبط سبب انتشار هذه المواد بهذه السرعة، لكن يمكننا أن نفترض أن ذلك يرجع إلى أن أدوات الذكاء الاصطناعي أصبحت رخيصة وسهلة الوصول إليها بشكل متزايد، كما أصبحت سهلة التدريب بشكل متزايد. بمطالبة واحدة، يمكن للمستخدم إنشاء 50 صورة، تستغرق كل منها حوالي 15 إلى 20 ثانية.

بدأت وكالات إنفاذ القانون في اتخاذ إجراءات. في عملية منسقة في وقت سابق من هذا العام، اعتقلت يوروبول 25 فردًا على صلة بتوزيع مثل هذه المواد. دعت IWF المملكة المتحدة إلى تطوير إطار تنظيمي لضمان أن نماذج الذكاء الاصطناعي لديها ضوابط لمنع إنتاج هذا النوع من المواد. في فبراير، أصبحت المملكة المتحدة أول دولة تجرم إنشاء وتوزيع أدوات الذكاء الاصطناعي المخصصة لإنشاء محتوى اعتداء على الأطفال.

تحدي عالمي

هذه المشكلة ليست محصورة في المملكة المتحدة. في الولايات المتحدة، قال المركز الوطني للأطفال المفقودين والمستغلين – وهو نظير لـ IWF – إنه تلقى أكثر من 7,000 تقرير يتعلق بمحتوى اعتداء جنسي على الأطفال تم إنشاؤه بواسطة الذكاء الاصطناعي في عام 2024.

بينما تتضمن معظم أدوات الذكاء الاصطناعي التجارية ضمانات ضد إنشاء محتوى مسيء، فإن بعض النماذج مفتوحة المصدر أو المخصصة تفتقر إلى هذه الحماية، مما يجعلها عرضة للاستغلال. قال هنري أجدير، الخبير في الذكاء الاصطناعي والتزييف العميق: «إن انتشار وديمقراطية أدوات الذكاء الاصطناعي على مدى السنوات القليلة الماضية يعني أنه كان هناك تأثير تسلسلي حقيقي للفاعلين السيئين. نحن بحاجة إلى أن نكون أفضل تجهيزًا في هذا الشأن، ونحتاج إلى رؤية المزيد من الإجراءات من بعض الشركات التي تشارك عن علم أو بغير علم في تسهيل ذلك».

خاتمة: دعوة عاجلة للمسؤولية

إن الزيادة الهائلة في مواد استغلال الأطفال المولدة بالذكاء الاصطناعي هي جرس إنذار يصم الآذان. إنها تظهر أن التقدم التكنولوجي، إذا لم يكن مصحوبًا بضوابط أخلاقية وتنظيمية قوية، يمكن أن يتم تسخيره لأغراض شريرة. تقع على عاتق شركات التكنولوجيا والحكومات والمجتمع ككل مسؤولية العمل معًا لبناء حواجز حماية أقوى، وتطوير أدوات كشف أفضل، ومحاسبة أولئك الذين ينشئون ويوزعون هذه المواد المروعة.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

الفئات

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading