يضع الاستخدام المكثف لنماذج الذكاء الاصطناعي في الحروب من قبل الجيش الإسرائيلي تساؤلات حول مستقبل الحروب الذكية، والأطر الأخلاقية التي يجب إرساؤها.
يشير تقرير جديد إلى تزايد اعتماد الجيش الإسرائيلي على نماذج ذكاء اصطناعي تم تطويرها في الولايات المتحدة للمساعدة في تحديد أهداف عسكرية وتعقب أفراد مشتبه بصلتهم بجماعات مسلحة. ومع تصاعد الانتقادات الدولية، يخشى البعض من أن يؤدي هذا الاستخدام المتزايد لتقنيات الذكاء الاصطناعي إلى زيادة الخسائر بين المدنيين وتعميق الجدل حول أخلاقيات الحرب التكنولوجية.
القفزة في استخدام الذكاء الاصطناعي
بحسب ما ذكره التقرير، ارتفعت نسبة استخدام أدوات الذكاء الاصطناعي في الحروب التي توفرها شركات مثل مايكروسوفت وأوبن إيه آي من قبل الجيش الإسرائيلي إلى ما يقارب 200 ضعف خلال الفترة الأخيرة، خاصةً بعد أحداث أمنية واسعة النطاق في عام 2023. وتشير الوثائق إلى أنّ هذه التقنيات تُستخدم لتحليل كميات ضخمة من البيانات والتسجيلات الصوتية والمحادثات، بحثًا عن أنماط مشبوهة قد تحدد هوية أشخاص مشتبه فيهم.
اقرأ أيضًا: حروب الذكاء الاصطناعي: كيف غيّرت التقنيات الجديدة موازين الصراع في غزة
الذكاء الاصطناعي بين جمع المعلومات وتنفيذ الضربات
أوضح التقرير أنّ هذه الأدوات لا تقتصر على التصنيف والتحليل فحسب، بل يُعتمد عليها أيضًا في إعداد قوائم استهداف. يقوم النظام بتحليل المكالمات والرسائل والبيانات الشخصية، ثم يُصدر توصيات تشبه إلى حد ما “قائمة أهداف” يمكن مهاجمتها عسكريًا. ومع ذلك، تؤكد مصادر عسكرية إسرائيلية أنّ هناك ضباطًا وخبراء بشريين يقومون بمراجعة هذه التوصيات قبل اتخاذ قرار نهائي.
المخاطر والأخطاء
أشار شهودٌ وردت أسماؤهم في التقرير إلى حوادث محتملة وقع فيها استهداف مدنيين نتيجة أخطاء في الترجمة الآلية أو سوء تصنيف البيانات. فعلى سبيل المثال، تم رصد تشابه في كلمات عربية قد تحمل معنى مختلفًا في السياق العسكري، ما أدى إلى إدراج أسماء في قوائم خطأ. كما حدث خلط بين قوائم تتعلق بطلاب مدارس وأسماء لأشخاص مطلوبين أمنيًا. يعكس ذلك الجانب المظلم لاعتماد الأنظمة الذكية على قواعد بيانات ضخمة دون تحقق دقيق من صحة المعلومات.
اقرأ أيضًا: الجيوش تتسابق لاستبدال الجنود البشريين بروبوتات الذكاء الاصطناعي..
الدور الأمريكي والتساؤلات الأخلاقية
تقول التقارير إنّ مايكروسوفت وغيرها من شركات التقنية الأمريكية قدمت خدمات الحوسبة السحابية والبنية التحتية، ووفرت أدوات مثل نماذج الترجمة وإدراك النصوص. وعلى الرغم من أنّ هذه الشركات تضع بنودًا تقيّد استخدام تقنياتها في مجالات “انتهاك حقوق الإنسان”، إلا أنّها غالبًا لا تتحقق بدقة من طبيعة استخدام الذكاء الاصطناعي في الحروب. وهذا ما يُثير تساؤلات حول دور الشركات الأمريكية في تمكين طرف عسكري من استخدام الذكاء الاصطناعي في معارك قد تسقط فيها أرواح مدنيين.
الدفاع الإسرائيلي والرد
من جانبها، ترفض السلطات الإسرائيلية التعليق على تفاصيل عملياتها، إلا أنها تؤكد أنّ هناك لجانًا رقابية ومسؤولين بشريين يدرسون كل توصية تصدر عن الأنظمة الذكية. وتدافع عن نهجها بالقول إنّ الذكاء الاصطناعي يساعد في تقليل زمن التعقب وتنفيذ الضربات بدقة أكبر، مما يقلل المخاطر على الجنود ويحد من الإصابات الجانبية. لكن الأرقام المتصاعدة للضحايا المدنيين تظل موضع جدل.
مستقبل الذكاء الاصطناعي في الحروب
إنّ استخدام الذكاء الاصطناعي في الحروب ليس قاصرًا على إسرائيل فحسب، فدول عدة تقوم بتطوير نماذج مماثلة وتختبرها في بيئات صراعية مختلفة. وقد تصبح مسألة المسؤولية الأخلاقية على عاتق مصممي التقنية ومستخدميها معًا، إضافةً إلى المنظمات الدولية التي تحاول وضع أطر وقواعد تحكم هذه التطبيقات القاتلة.
بذلك، يضعنا هذا الملف أمام معضلة معقدة: كيف يمكن تحقيق الاستفادة القصوى من قدرات الذكاء الاصطناعي في مجال الأمن والدفاع، دون أن يتحوّل إلى أداة لحصد أرواح بريئة؟ وما حدود مسؤولية شركات التكنولوجيا في مراقبة استخدام منتجاتها، خاصةً عندما تتعلق المسألة بقرار الحياة والموت؟ أسئلة تبقى مفتوحة للنقاش في ظل سباق عالمي لتبني أحدث التقنيات في النزاعات المسلحة.