موجة من المعلومات المضللة انطلقت عبر الإنترنت منذ بداية الضربات الإسرائيلية على إيران، مع عشرات المنشورات التي راجعتها بي بي سي فيريفاي تسعى لتضخيم فعالية الرد الإيراني باستخدام مقاطع فيديو مولدة بالذكاء الاصطناعي، في أول استخدام واسع النطاق للذكاء الاصطناعي التوليدي أثناء نزاع.
محتويات المقالة:
- مقدمة
- المعلومات المضللة بالذكاء الاصطناعي
- المقاطع المزيفة الرائجة
- التركيز على طائرات إف-35
- المحتوى المؤيد لإسرائيل
- المصادر الرسمية والمعلومات المضللة
- مشاكل جروك والتحقق
- خاتمة
- الأسئلة الشائعة
مقدمة
موجة من المعلومات المضللة انطلقت عبر الإنترنت منذ بداية الضربات الإسرائيلية على إيران الأسبوع الماضي، مع عشرات المنشورات التي راجعتها بي بي سي فيريفاي تسعى لتضخيم فعالية الرد الطهراني. حصلت أكثر 3 مقاطع فيديو مزيفة وجدتها بي بي سي فيريفاي مجتمعة على أكثر من 100 مليون مشاهدة عبر منصات متعددة.
شاركت الحسابات المؤيدة لإسرائيل أيضًا معلومات مضللة عبر الإنترنت، بشكل رئيسي من خلال إعادة تداول مقاطع قديمة من احتجاجات وتجمعات في إيران، مدعية زورًا أنها تُظهر معارضة متزايدة ضد الحكومة ودعمًا بين الإيرانيين للحملة العسكرية الإسرائيلية.
المعلومات المضللة بالذكاء الاصطناعي
أطلقت إسرائيل ضربات في إيران في 13 يونيو، مما أدى إلى عدة جولات من هجمات الصواريخ والطائرات المسيرة الإيرانية على إسرائيل. وصفت إحدى المنظمات التي تحلل الصور مفتوحة المصدر حجم المعلومات المضللة عبر الإنترنت بـ«المذهل» واتهمت بعض «مزارعي المشاركة» بالسعي للربح من النزاع من خلال مشاركة محتوى مضلل مصمم لجذب الانتباه عبر الإنترنت.
كتبت جيوكونفيرمد، مجموعة التحقق عبر الإنترنت، على إكس: «نحن نرى كل شيء من لقطات غير ذات صلة من باكستان، إلى مقاطع فيديو معاد تدويرها من ضربات أكتوبر 2024 – بعضها حصل على أكثر من 20 مليون مشاهدة – وكذلك مقاطع ألعاب ومحتوى مولد بالذكاء الاصطناعي يُعرض كأحداث حقيقية».
المقاطع المزيفة الرائجة
أصبحت حسابات معينة «ناشرة فائقة» للمعلومات المضللة، وتم مكافأتها بنمو كبير في عدد متابعيها. حساب مؤيد للإيرانيين بدون روابط واضحة للسلطات في طهران – ديلي إيران ميليتري – شهد نمو متابعيه على إكس من ما يزيد قليلاً عن 700 ألف في 13 يونيو إلى 1.4 مليون بحلول 19 يونيو، زيادة 100% في أقل من أسبوع.
هو واحد من العديد من الحسابات الغامضة التي ظهرت في خلاصات الناس مؤخرًا. جميعها لديها علامات زرقاء، ونشطة في الرسائل وتنشر معلومات مضللة بشكل متكرر. لأن بعضها يستخدم أسماء تبدو رسمية، افترض بعض الناس أنها حسابات أصيلة، لكن من غير الواضح من يدير هذه الملفات الشخصية فعلاً.
وصف السيل من المعلومات المضللة بـ«أول مرة نرى فيها الذكاء الاصطناعي التوليدي يُستخدم على نطاق واسع أثناء نزاع»، إيمانويل ساليبا، كبير مسؤولي التحقيق مع مجموعة المحللين جت ريل، لبي بي سي فيريفاي.
التركيز على طائرات إف-35
شاركت الحسابات التي راجعتها بي بي سي فيريفاي بكثرة صور مولدة بالذكاء الاصطناعي تبدو وكأنها تسعى لتضخيم نجاح رد إيران على الضربات الإسرائيلية. صورة واحدة، حصلت على 27 مليون مشاهدة، صورت عشرات الصواريخ تسقط على مدينة تل أبيب.
مقطع فيديو آخر زعم أنه يُظهر ضربة صاروخية على مبنى في المدينة الإسرائيلية في وقت متأخر من الليل. قالت السيدة ساليبا إن المقاطع غالبًا ما تصور هجمات ليلية، مما يجعلها صعبة التحقق بشكل خاص.
ركزت المزيفات بالذكاء الاصطناعي أيضًا على ادعاءات تدمير طائرات إف-35 الإسرائيلية المقاتلة، طائرة أمريكية الصنع متطورة قادرة على ضرب أهداف أرضية وجوية. إذا كان وابل المقاطع حقيقيًا لكانت إيران دمرت 15% من أسطول إسرائيل من المقاتلات، أخبرت ليزا كابلان، الرئيس التنفيذي لمجموعة المحللين أليثيا، بي بي سي فيريفاي. لم نتمكن بعد من توثيق أي لقطات لإف-35 يتم إسقاطها.
المحتوى المؤيد لإسرائيل
تُنشر المعلومات المضللة أيضًا من قبل حسابات معروفة جيدًا تدخلت سابقًا في حرب إسرائيل-غزة ونزاعات أخرى. دوافعها متنوعة، لكن الخبراء قالوا إن بعضها قد يحاول استثمار النزاع، مع بعض منصات التواصل الاجتماعي الرئيسية تقدم مدفوعات للحسابات التي تحقق أعدادًا كبيرة من المشاهدات.
بالمقابل، ركزت المنشورات المؤيدة لإسرائيل إلى حد كبير على اقتراحات أن الحكومة الإيرانية تواجه معارضة متزايدة مع استمرار الضربات. من بينها فيديو مولد بالذكاء الاصطناعي منتشر على نطاق واسع يزعم زورًا أنه يُظهر إيرانيين يهتفون «نحن نحب إسرائيل» في شوارع طهران.
المصادر الرسمية والمعلومات المضللة
شاركت مصادر رسمية في إيران وإسرائيل بعض الصور المزيفة. وسائل الإعلام الحكومية في طهران شاركت لقطات مزيفة من الضربات وصورة مولدة بالذكاء الاصطناعي لطائرة إف-35 مسقطة، بينما حصل منشور شاركته قوات الدفاع الإسرائيلية على ملاحظة مجتمعية على إكس لاستخدام لقطات قديمة غير ذات صلة من وابل صاروخي.
الكثير من المعلومات المضللة التي راجعتها بي بي سي فيريفاي تم مشاركتها على إكس، مع المستخدمين يلجؤون بكثرة لروبوت الذكاء الاصطناعي للمنصة – جروك – لتحديد صحة المنشورات.
مشاكل جروك والتحقق
ومع ذلك، في بعض الحالات أصر جروك على أن مقاطع الفيديو المولدة بالذكاء الاصطناعي حقيقية. مقطع فيديو واحد أظهر تدفقًا لا نهائيًا من الشاحنات التي تحمل صواريخ باليستية تخرج من مجمع جبلي. علامات المحتوى المولد بالذكاء الاصطناعي شملت صخورًا في الفيديو تتحرك من تلقاء نفسها، قالت السيدة ساليبا.
لكن ردًا على مستخدمي إكس، أصر جروك مرارًا أن الفيديو حقيقي واستشهد بتقارير من منافذ إعلامية شملت نيوزويك ورويترز. «تحقق من الأخبار الموثوقة للوضوح»، خلص الروبوت المحادث في عدة رسائل. لم يرد إكس على طلب من بي بي سي فيريفاي للتعليق على أعمال الروبوت المحادث.
خاتمة
بينما تتنوع دوافع أولئك الذين ينشئون المزيفات عبر الإنترنت، يتم مشاركة العديد منها من قبل مستخدمي وسائل التواصل الاجتماعي العاديين. اقترح ماثيو فاشياني، باحث في جامعة نوتر دام، أن المعلومات المضللة يمكن أن تنتشر بسرعة أكبر عبر الإنترنت عندما يواجه الناس خيارات ثنائية، مثل تلك التي تثيرها النزاعات والسياسة. هذا يشير إلى القضية الاجتماعية والنفسية الأوسع للناس الذين يريدون إعادة مشاركة الأشياء إذا كانت تتماشى مع هويتهم السياسية، وأيضًا بشكل عام، المحتوى العاطفي الأكثر إثارة سينتشر بسرعة أكبر عبر الإنترنت.
الأسئلة الشائعة
1. ما هو نطاق المعلومات المضللة في الصراع الإسرائيلي الإيراني؟
حصلت أكثر 3 مقاطع فيديو مزيفة على أكثر من 100 مليون مشاهدة مجتمعة، مما يجعلها أول استخدام واسع النطاق للذكاء الاصطناعي التوليدي أثناء نزاع.
2. ما هي أنواع المحتوى المزيف الأكثر انتشارًا؟
تشمل مقاطع فيديو مولدة بالذكاء الاصطناعي تُظهر ضربات صاروخية مزيفة، وادعاءات كاذبة حول تدمير طائرات إف-35، ومقاطع معاد تدويرها من أحداث سابقة.
3. كيف تؤثر هذه المعلومات المضللة على الرأي العام؟
تنتشر بسرعة أكبر عندما تتماشى مع الهويات السياسية للناس، وتستغل المشاعر والانقسامات لجذب المشاهدات والمشاركة.