بين التقدّم التقني والتساؤلات الأخلاقية، تقترب الحرب من التحوّل إلى مواجهةٍ تعتمد كليًا على الذكاء الاصطناعي
أثار تصريحٌ صادمٌ لمسؤولٍ رفيعٍ في البنتاغون حول نيّة وزارة الدفاع الأميركية التركيز على الاستثمار في «الروبوتات القاتلة الذاتية» موجةً من القلق والتساؤلات. تجلّت ملامح هذا التوجّه حين أكّد المسؤول أنّ الحكومة لم تعد تكتفي بالأبحاث النظرية، بل تسعى إلى نقل هذه التقنيات من حيّز التطوير إلى ميادين التطبيق الفعلي. وبينما يبدي العسكريون حماسةً تجاه إمكانات الذكاء الاصطناعي القتالي، يعرب نشطاء حقوق الإنسان والمجتمع الدولي عن مخاوفٍ متنامية.
خلفية: من الأبحاث إلى العمليات
منذ سنوات، تعمل مؤسساتٌ عدة في الولايات المتحدة على تطوير الذكاء الاصطناعي لأغراضٍ عسكرية. لكن الجديد هو التركيز على «الروبوتات القاتلة الذاتية» التي يمكنها اتخاذ قراراتٍ هجوميةٍ دون تدخّلٍ بشريٍّ مباشر. ففي حين كان الاستثمار الحكومي يذهب غالبًا إلى مشاريعٍ بحثيةٍ أولية، تبيّن اليوم وجود خطةٍ للانتقال إلى مرحلة التصنيع الفعلي والتوسّع في استخدامها. يعزو المسؤولون هذا التغيّر إلى الحاجة الملحّة للحفاظ على التفوق العسكري، في وقتٍ تتسابق فيه قوى عالميةٌ أخرى لتطوير أسلحةٍ ذكية.
اقرأ أيضًا: الجيوش تتسابق لاستبدال الجنود البشريين بروبوتات الذكاء الاصطناعي.. خبراء يحذرون من الكارثة
تغيّر نمط التمويل
وفقًا لما أشار إليه مسؤولون، تسعى وزارة الدفاع إلى تغيير آلية الإنفاق على الأبحاث. فبدلًا من ضخّ مبالغ كبيرةٍ في مشاريعٍ تجريبية، يجري الآن اعتماد نموذجٍ يشجّع القطاع الخاص على تحمل جزءٍ كبيرٍ من التكلفة. وتقضي هذه الصيغة بمساهمة الحكومة بمبالغ صغيرةٍ نسبيًا، بينما تساهم الشركات الخاصة بالحصة الأكبر وتمتلك الحافز لإظهار نتائج أسرع. يرى المراقبون أنّ هذه الخطوة قد تزيد من سرعة الإنتاج وتبنّي تقنياتٍ جديدةٍ، ولكنها أيضًا تطرح تساؤلاتٍ حول مدى رقابة الدولة على الأهداف الأخلاقية لتلك المشروعات.
أبعاد قانونية وأخلاقية
رغم أنّ الأمم المتحدة تناقش منذ سنواتٍ إمكانية حظر الأسلحة الذاتية القاتلة، لم تصل المناقشات إلى اتفاقٍ دولي مُلزِم. في المقابل، تسير بعض الدول نحو تطوير هذه الأسلحة بمعدلٍ متسارعٍ، ما يخلق حالةً من عدم اليقين حيال مستقبل الحروب. فمع غياب ضوابطٍ واضحة، قد تُستخدم هذه التقنيات بطرقٍ تتعارض مع القوانين الدولية وتسبّب خسائر بشرية جسيمة. كما يتخوّف الخبراء من احتمالية وقوع أنظمةٍ بهذه القدرات في أيدي جهاتٍ غير حكوميةٍ أو مجموعاتٍ مسلحة.
اقرأ أيضًا: طائرات مسيّرة ومقاتلات ذكية: مستقبل العمليات الجوية
أصوات معارضة
تتصدّر منظماتٌ حقوقيةٌ وعلماءٌ بارزون جبهة الرفض، محذّرين من «سباق التسلّح بالذكاء الاصطناعي» الذي قد يجرّ العالم إلى عواقب وخيمة. تشير هذه الأصوات إلى أنّ الاعتماد الواسع على أنظمةٍ قد تخطئ في تمييز الأهداف أو تتعرّض لعملياتٍ قرصنةٍ وتلاعب، ما يجعلها عرضةً لاتخاذ قراراتٍ خاطئةٍ مميتة. ويرى آخرون أنّ نشر مثل هذه الأسلحة قد يقلّل من كلفة شنّ الحروب سياسيًا وبشريًا، ما يجعل خيار الحرب أكثر إغراءً للحكومات.
تعزيز النزعة العسكرية
يأتي الإعلان عن الاستثمار المكثّف في الروبوتات القاتلة في وقتٍ تشهد فيه الولايات المتحدة تحوّلاتٍ في السياسات الدفاعية. وبفضل تقدّم تقنيات الذكاء الاصطناعي، قد تصبح عمليات المراقبة والهجوم أكثر دقةً وسرعةً. هذا التطوّر قد يُضعف مفهوم الردع التقليدي المعتمد على العنصر البشري، ويتيح للدول تنفيذ هجماتٍ عالية الدقّة بأقل تكلفةٍ بشريةٍ من طرفها.
المستقبل القريب
مع تصاعد حدّة التوتّرات الجيوسياسية في أكثر من منطقة، قد يسهم تسارع الأبحاث العسكرية في جعل هذه التقنيات واقعًا قريبًا. يرى المؤيدون أنّها ستوفر قدراتٍ دفاعيةٍ وردعيةٍ هائلةٍ، فيما يخشى المعارضون توسيع فجوةٍ خطيرةٍ بين القوى العظمى والدول ذات الإمكانات المحدودة. وبين الرهانات الاستراتيجية والمخاوف الأخلاقية والقانونية، تبقى الأسئلة حول كيفية ضبط استخدام الروبوتات القاتلة بلا إجاباتٍ حاسمة.
ينذر توجه البنتاغون نحو الاستثمار في «الروبوتات القاتلة الذاتية» بمرحلةٍ جديدةٍ في عالم التسليح، قد تعيد تعريف مفاهيم الحرب والردع الدولي. وبينما تفتح هذه التقنيات آفاقًا عسكريةً واسعة، تبرز تحدياتٌ تتعلّق بالأخلاق والأمن والمستقبل السياسي للعالم. وبانتظار ردود الأفعال الدولية والقانونية، تظل المخاوف قائمةً حول كيفية ضمان بقاء القرار البشري في دائرة التحكم، قبل أن تتحول حروب المستقبل إلى مواجهاتٍ بين آلاتٍ تتخذ قراراتٍ بالقتل دون رادع.