تكشف تقارير جديدة كيف تسبّب التحيّزات التكنولوجية في الإطاحة بأبرياء، فتطرح أسئلة ملحّة حول مستقبل العدالة الرقمية.
تُعَدّ تقنية التعرّف على الوجوه القائمة على الذكاء الاصطناعي إحدى أهم التطورات التقنية في مجال الأمن. ورغم أنها ساعدت في كشف هويات بعض المجرمين، إلّا أنّ هناك جوانب مقلقة، مثل اعتماد بعض إدارات الشرطة على نتائج هذه التقنية بشكل مفرط دون التحقق بالأدلة الكافية، ما يؤدّي أحيانًا إلى اعتقالات خاطئة تضرّ بحياة الأبرياء. في هذا المقال، نسلّط الضوء على قضايا محدّدة في الولايات المتحدة تُظهر غيابًا ملحوظًا لخطوات تحرٍّ بسيطة، واكتفاءً بما تقدّمه الخوارزميات.
كيف بدأت القصة؟
شهدت إحدى ضواحي مدينة سانت لويس حادثة اعتداء على حارس أمن في محطة قطار، مما أدى إلى إصابته بجروح خطيرة أثّرت على ذاكرته. بعد عجز الشرطة عن التعرف على المشتبه بهم، لجأ المحققون إلى برنامج تعرّف على الوجه يعتمد على مئات الآلاف من صور الموقوفين جنائيًا. ظهرت أسماء عدة مشتبه بهم، من بينهم شخص يُدعى «كريستوفر غاتلين»، الذي لا تربطه أي أدلة سابقة بمكان الجريمة أو سجلات عنف. ورغم أنّ سياسة المدينة تنصّ على أنّ تقنية التعرّف على الوجه «غير علمية» وأنّ نتائجها لا يجب أن تكون الأساس الوحيد للاعتقال، فإن القضية طُوّرت ضدّ غاتلين استنادًا إلى تطابق تقني غير مؤكد. احتُجز لأكثر من عامين قبل أن تتضح براءته.
اقرأ أيضًا: أكبر إخفاقات الذكاء الاصطناعي في عام 2024
نتائج تحقيق صحفي تكشف أبعاد القضية
بيّنت صحيفة أمريكية بارزة من خلال تحليل وثائق الشرطة وتقارير المحاكم والمقابلات، أنّ ١٥ قسم شرطة في ١٢ ولاية على الأقل يعتمدون في بعض الحالات بشكل رئيس على الذكاء الاصطناعي للتعرّف على المشتبه بهم دون أدلّة داعمة. والأخطر من ذلك، أنّ بعض الضباط وصفوا تطابق الوجه بأنه «تطابق بنسبة ١٠٠٪»، ما يوحي بأنهم اتخذوا التقنية مرجعًا موثوقًا دون أي تحرٍّ إضافي. وقد رُصدت حالات عديدة لأشخاص أُلقي القبض عليهم بالخطأ لمجرّد أن تقنية التعرّف على الوجه أشارت إليهم، مع تجاهل دليل حاسم مثل شهادة شهود العيان أو بيانات الحمض النووي أو بصمات الأصابع.
مظاهر الخلل في تطبيق الشرطة للتقنية
تشمل الجوانب التي أدّت إلى هذه الاعتقالات الخاطئة إهمال التحقق من أدلة إضافية، والاعتماد المفرط على الشهود، والتحيز التكنولوجي ضد الأشخاص من ذوي البشرة الداكنة. تفتقر معظم أقسام الشرطة إلى سياسة تُلزمهم بالإبلاغ العلني عن استخدام تقنية التعرّف على الوجه، كما أن قليلًا منها يحفظ سجلات وافية لاستخدامها. ويصعّب هذا الوضع من مهمة المحامين والمدافعين عن حقوق الإنسان في تتبّع حالات الاعتقال القائمة على تعرّف خاطئ.
اقرأ أيضًا: أبحاث OpenAI تكشف عن نسب خطأ عالية في نماذج الذكاء الاصطناعي المتقدمة
المستقبل والاتجاهات القانونية
مع تزايد الوعي الشعبي والقضائي بسلبيات التقنية، تتنامى المطالبات بوضع معايير أشدّ صرامة لإلزام الشرطة بالتحقق من الأدلة الإضافية قبل الشروع في الاعتقالات. وفي الوقت نفسه، ينادي بعض المشرّعين بضرورة إصدار تشريعات تلزم الجهات المختصة بالإفصاح التام عن اعتمادها على الخوارزميات في عمليات التحقيق. من شأن هذه الخطوات أن ترسم طريقًا أكثر إنصافًا وشفافية في استخدام الذكاء الاصطناعي في إنفاذ القانون.
يراهن الكثيرون على الذكاء الاصطناعي لتعزيز كفاءة الشرطة وحل الجرائم المعقدة، لكن الأحداث الأخيرة أثبتت أن الإفراط في الثقة بالتقنية دون ضوابط كافية قد يشكّل تهديدًا لحريات الأفراد. إنّ دمج الأدلة الرقمية مع التحري التقليدي والتحقق الدقيق من الشهود والأدلة المادية هو الطريق الأمثل لضمان تحقيق العدالة، كي لا يدفع الأبرياء ثمن أخطاء البرامج الذكية.