أحدثت حادثة توقيف باحثة في جامعة ييل، عقب اتهامها زورًا بالانتماء إلى منظمة مصنفة إرهابية من قِبل مدونة تعمل بخوارزميات التصنيف الزائف، ضجةً واسعةً. فهل نحن أمام ظاهرة جديدة من تقييد حرية التعبير بالاعتماد على ذكاء اصطناعي غير موثوق؟
محتويات المقالة:
- بداية الواقعة
- تفاصيل الاتهامات ودور الخوارزمية
- رد فعل الجامعة والانتقادات
- الأبعاد الأخلاقية والقانونية
- حرية التعبير بين الذكاء الاصطناعي والسياسة
- آفاق الحل
- خاتمة
- الأسئلة الشائعة
بداية الواقعة
شهدت جامعة ييل حدثًا غير مسبوق عندما أوقفت الباحثة «هيليه دوتاغي» عن العمل، وحُظرت من الدخول إلى الحرم الجامعي، بعدما اتهمتها مدونة يمينية متطرفة بأنها «إرهابية». المثير للجدل في هذه القضية أن المدونة – المعروفة باستعانتها بـ«خوارزميات التصنيف الزائف» – لم تقدّم أي أدلة ملموسة، بل اعتمدت على تحليل إلكتروني يدّعي ربط «دوتاغي» بمنظمة دولية تدعم المعتقلين الفلسطينيين.
وبحسب التقارير، فإن المنظمة المصنفة إرهابية في بعض الدول، ليست كذلك في الولايات المتحدة. ومع ذلك، استندت الجامعة إلى هذه المعلومات غير الموثوقة لاتخاذ إجراء فوري بحق الباحثة.
تفاصيل الاتهامات ودور الخوارزمية
تفيد المصادر بأن المدونة استخدمت أدوات ذكاء اصطناعي تدّعي قادرة على رصد «عداء لإسرائيل»، فتجمع البيانات من تغريدات قديمة ومشاركات حواراتية، ثم تصدر حكماً نهائيًا بتصنيف الشخص. في حالة «دوتاغي»، زعمت الخوارزمية أنها تظهر انتماءً لجماعة محظورة، استنادًا إلى مشاركة أكاديمية سابقة في ندوة حول حقوق الأسرى الفلسطينيين.
تُعرّف «خوارزميات التصنيف الزائف» بأنها أنظمة تعمل على تصنيف مستخدمين أو منظمات ضمن قوائم «خطر» أو «إرهابي» أو «عنصري»، وفقًا لمعطيات تُحلَّل آليًا غالبًا ما تكون غير دقيقة أو متحيزة. الخطورة تكمن في اعتماد بعض المؤسسات على هذه التصنيفات دون تحقق يدوي أو تدقيق.
رد فعل الجامعة والانتقادات
أعلنت إدارة جامعة ييل أن الإجراء جاء استنادًا إلى مخاوف أمنية، وأنه مؤقت لحين استكمال التحقيقات. لكن المنتقدين يرون أن الجامعة تسرّعت في الحكم وخضعت لضغوط إعلامية تنبع من حملات تشويه آلية.
توضح «دوتاغي» في بيان رسمي أنها لم تتلق سوى ساعات قليلة للرد على الاتهامات قبل أن تواجه قرار الإيقاف. وتؤكد أنها ليست عضوةً في أي منظمة مصنفة إرهابية، وأن كل ما قامت به لا يتعدى المشاركة في ندوات أكاديمية متعلقة بحقوق الإنسان والقانون الدولي.
من جانب آخر، تتداول وسائل الإعلام قصة طالب آخر يدعى «محمود خليل» في جامعة كولومبيا، الذي قيل إنه اعتُقل من منزله وتم اقتياده إلى مركز احتجاز بموجب أوامر تنفيذية تسهل اعتقال من يُشتبه في عدائهم لإسرائيل. يشير المراقبون إلى وجود اتجاه متصاعد لتوظيف الذكاء الاصطناعي في تصفية الحسابات السياسية والتضييق على الناشطين المؤيدين للقضايا الفلسطينية.
الأبعاد الأخلاقية والقانونية
تسلط هذه الحادثة الضوء على إشكالية أساسية في استخدام الخوارزميات لتوجيه قرارات حساسة. إذ باتت بعض الأنظمة الأمنية والمؤسسات الأكاديمية تعتمد على أدوات تقنية غير موثوقة، ما قد يعيق حرية التعبير ويهدد أمن الأفراد الوظيفي والشخصي.
كما تبرز تساؤلات حول مسؤولية المطورين ومقدمي الخدمات التقنية. فهل يتحمل مصممو مثل هذه الخوارزميات تبعات اتهام أشخاص بالخطأ؟ وهل يتعين فرض قيود تشريعية على نشر أدوات تصنيفية قد تستخدم في تشويه سمعة الأفراد أو حرمانهم من حقوقهم؟
حرية التعبير بين الذكاء الاصطناعي والسياسة
تجد كثير من المؤسسات نفسها في مأزق: فهي ترغب في حماية سمعتها وتجنب أي تهديدات محتملة، ولكنها قد تتحول إلى ضحية إدمان الثقة في ذكاء اصطناعي غير دقيق. يفيد خبراء قانونيون بأن الجامعات، بصفة خاصة، يجب أن تكون حاضنة لحرية الفكر والتعبير، ولا ينبغي لها الانصياع لحملات تشهير دون دلائل واضحة.
في هذا السياق، يشير ناشطون حقوقيون إلى خطورة تصاعد النهج الأمني الذي يرتكز على فرز آلي للأشخاص بناءً على كلماتهم أو محتوى منشوراتهم. وقد يؤدي ذلك إلى انتهاك الحقوق الدستورية وتهديد استقرار الحياة الأكاديمية والمهنية للكثيرين.
آفاق الحل
يعتقد المراقبون أن الحل يبدأ بوضع معايير مهنية وأخلاقية لتطبيق الذكاء الاصطناعي في مثل هذه القضايا الحساسة. فقد تكون هناك حاجة لإخضاع أي نظام تصنيفي لمراجعة من جهات مستقلة، وضمان آليات واضحة لطلب الاستئناف وتقديم أدلة مضادة.
ويأتي دور المشرعين هنا ليوازنوا بين الحرص على الأمن الوطني واحترام الحريات المدنية. كما تُثار دعوات لتوعية المؤسسات والأفراد بمخاطر الاعتماد الأعمى على نتائج الخوارزميات. فمن دون رقابة بشرية واعية، قد تصبح هذه الأنظمة سلاحًا في يد الجهات التي تسعى لفرض أجندات سياسية أو أيديولوجية.
خاتمة
تُعتبر قضية إيقاف الباحثة «هيليه دوتاغي» في جامعة ييل جرس إنذار لمدى هشاشة السمعة الشخصية والمهنية أمام خوارزميات تصنيف غير دقيقة. وهي دعوة للوقوف بحزم في وجه أي محاولات لاستخدام الذكاء الاصطناعي للحد من حرية التعبير أو تهميش الأصوات الناقدة.
بالتالي، يستلزم التعامل مع «خوارزميات التصنيف الزائف» مزيجًا من التحليل البشري والتشريعات الحاسمة لمنع تحول التكنولوجيا من قوة محايدة إلى أداة قمعية. ومع تعاظم نفوذ الذكاء الاصطناعي، يصبح من الضروري أكثر من أي وقت مضى الحذر والوعي في استخدامه، خاصةً في المجالات المرتبطة بحقوق الأفراد وحرياتهم.
الأسئلة الشائعة
1. ما هي خوارزميات التصنيف الزائف؟
هي أنظمة ذكاء اصطناعي تصنّف الأشخاص أو الكيانات ضمن قوائم خطرة أو إرهابية بالاعتماد على بيانات غير مدققة.
2. لماذا أوقفت جامعة ييل الباحثة «هيليه دوتاغي»؟
استندت الجامعة إلى اتهامات مدونة يمينية متطرفة، رغم عدم وجود دليل رسمي أو تحقيق متعمق.
3. هل هذه القضية سابقة فريدة؟
هناك حوادث أخرى مثل اعتقال الطالب «محمود خليل»، مما يشير إلى نمط متكرر في استخدام الذكاء الاصطناعي للتصنيف السياسي.
4. ما هو موقف «دوتاغي» من الاتهامات؟
نفت انتماءها لأي منظمة إرهابية، وأوضحت أنها شاركت فقط في فعاليات أكاديمية تتعلق بحقوق الإنسان.
5. كيف تؤثر هذه الخوارزميات على حرية التعبير؟
قد تُستخدم لتقييد الآراء المخالفة، وتهدد خصوصًا أصوات الناشطين أو المهتمين بقضايا إنسانية وسياسية حساسة.
6. ما دور التشريعات في تنظيم استخدام الذكاء الاصطناعي؟
يمكن للمشرعين وضع ضوابط تلزم المؤسسات بالتحقق من دقة وحيادية الخوارزميات، وتوفير آليات استئناف للأفراد المتضررين.
7. كيف نحد من هذه الانتهاكات مستقبلاً؟
عبر مراجعة الأنظمة من قبل جهات مستقلة، وتعزيز الوعي بأخطار الاعتماد الكلي على الذكاء الاصطناعي دون رقابة بشرية.