بازينجا

الذكاء الاصطناعي في المحاكم

امرأة تربح قضية في المحكمة باستخدام ChatGPT

Written by

Picture of فريقنا

فريقنا

Communications Consultant

نجحت امرأة في كاليفورنيا في استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لتمثيل نفسها في المحكمة وإلغاء إشعار إخلاء. بينما تسلط هذه الحالة الضوء على إمكانات الذكاء الاصطناعي في زيادة الوصول إلى المساعدة القانونية، فإنها تثير أيضاً مخاوف جدية بشأن المخاطر والهلوسة التي أوقعت محامين محترفين في المشاكل.

نجحت امرأة في كاليفورنيا في استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لتمثيل نفسها في المحكمة وإلغاء إشعار إخلاء. بينما تسلط هذه الحالة الضوء على إمكانات الذكاء الاصطناعي في زيادة الوصول إلى المساعدة القانونية، فإنها تثير أيضاً مخاوف جدية بشأن المخاطر والهلوسة التي أوقعت محامين محترفين في المشاكل.

الذكاء الاصطناعي في قاعة المحكمة

مع سهولة الوصول إلى أدوات الذكاء الاصطناعي التوليدي، يلجأ عدد متزايد من الأشخاص إلى روبوتات الدردشة للحصول على المساعدة القانونية وتمثيل أنفسهم في المحكمة. في حين أن هذا الاتجاه يفتح الباب أمام وصول أوسع للمعلومات القانونية، فإنه يأتي أيضاً مع مخاطر كبيرة، كما يتضح من الحالات التي أدت فيها المعلومات المولدة بالذكاء الاصطناعي إلى نتائج كارثية.

قصة نجاح: إلغاء إخلاء بمساعدة ChatGPT

نجحت امرأة في كاليفورنيا، تدعى لين وايت، في استخدام أدوات الذكاء الاصطناعي، بما في ذلك ChatGPT، لإلغاء إشعار إخلاء وتجنب عشرات الآلاف من الدولارات من الغرامات على مدى عدة أشهر من التقاضي.

وفقاً لشبكة NBC News، كانت وايت متأخرة عن الإيجار وخسرت في البداية محاكمة أمام هيئة محلفين. بدلاً من الاستمرار في العمل مع شبكة محلية للدفاع عن المستأجرين، استشارت ChatGPT ومنصة البحث بالذكاء الاصطناعي Perplexity لتمثيل نفسها في المحكمة.

قالت للشبكة: «لا يمكنني المبالغة في التأكيد على فائدة الذكاء الاصطناعي في قضيتي. لم أكن لأتمكن أبداً من الفوز بهذا الاستئناف بدون الذكاء الاصطناعي».

وفقاً للتقرير، حدد روبوت الدردشة الأخطاء المحتملة في القرارات الإجرائية للقاضي لوايت، وأبلغها بالإجراءات التي يجب اتخاذها، وصاغ الردود للمحكمة.

وايت هي واحدة من العديد من المتقاضين الذين مثلوا أنفسهم بمساعدة الذكاء الاصطناعي وخرجوا منتصرين. استخدمت ستايسي دينيت، صاحبة شركة لياقة بدنية منزلية في نيو مكسيكو، الذكاء الاصطناعي للتفاوض بنجاح على تسوية بشأن ديون غير مدفوعة.

قالت دينيت لشبكة NBC: «كنت أطلب من ChatGPT أن يتظاهر بأنه أستاذ في كلية الحقوق بجامعة هارفارد وأن يمزق حججي. يمزقها حتى أحصل على درجة A+ في المهمة». وبحسب ما ورد، كانت المخرجات مقنعة بشكل مخيف لدرجة أن المحامين المعارضين أثنوا على مهاراتها القانونية.

المخاطر: الهلوسة والمعلومات المضللة

ومع ذلك، فإن الأدوات ليست ناجحة دائماً في إلغاء القرارات أو الفوز بالقضايا القانونية. من المعروف أن أدوات الذكاء الاصطناعي تخرج بمعلومات ملفقة ومضللة – تُعرف باسم «الهلوسة» – يمكن أن توقع المتقاضي الذي يمثل نفسه في مشكلة. على سبيل المثال، تم فرض عقوبات على أحد الأفراد في أغسطس بعد تقديم طلب مليء بالاستشهادات الملفقة، وأُمر بإكمال عشر ساعات من خدمة المجتمع.

محامون محترفون يقعون في الفخ

ربما يكون الأمر الأكثر إثارة للقلق هو أن عدداً متزايداً من المحامين المحترفين قد تم ضبطهم وهم يقدمون ملفات تتضمن قضايا قضائية ملفقة، مما أدى إلى عقوبات وإحراج.

في وقت سابق من هذا الأسبوع، أفاد موقع 404 Media أن محامياً في نيويورك تم ضبطه وهو يستخدم الذكاء الاصطناعي في المحكمة، ثم تم ضبطه وهو يقدم تفسيراً مولداً بالذكاء الاصطناعي لخطئه. كتب القاضي المشرف على القضية في قرار لاذع: «تضيف هذه القضية فصلاً مؤسفاً آخر إلى قصة إساءة استخدام الذكاء الاصطناعي في مهنة المحاماة».

في أغسطس، تم إصدار غرامة «تاريخية» بقيمة 10000 دولار لمحامي في كاليفورنيا لتقديمه استئنافاً قضائياً مولداً بالذكاء الاصطناعي. تم العثور على 21 من أصل 23 اقتباساً من القضايا التي استشهد بها ملفقة.

ارتفاع عدد المتقاضين الذين يمثلون أنفسهم

على الرغم من مخاطر تضليل المحاكم المحتملة، أدى ظهور أدوات الذكاء الاصطناعي التي يمكن الوصول إليها بسهولة إلى زيادة عدد الأشخاص الذين يمثلون أنفسهم في المحكمة (يُعرفون باسم المتقاضين pro se).

تحذيرات الشركات والمسؤولية الأخلاقية

يأتي هذا على الرغم من تحذير شركات مثل جوجل للمستخدمين صراحة من الاعتماد على الذكاء الاصطناعي للحصول على المشورة القانونية. في شروط خدمتها، على سبيل المثال، تحذر شركة xAI التابعة لإيلون ماسك المستخدمين من استخدام خدماتها لاتخاذ «قرارات آلية عالية المخاطر تؤثر على سلامة الشخص أو حقوقه القانونية أو المادية».

ومع ذلك، فإن الضوابط الحالية لا تمنع أدوات مثل ChatGPT من تقديم إجابات مفصلة عند تقديم استفسارات تتعلق بالإجراءات القانونية.

قال المحامي روبرت فرويند لشبكة NBC: «يمكنني أن أفهم بسهولة كيف يمكن لشخص ليس لديه محامٍ، وربما يشعر أنه ليس لديه المال للوصول إلى محامٍ، أن يميل إلى الاعتماد على إحدى هذه الأدوات. ما لا أستطيع فهمه هو محامٍ يخون الأجزاء الأساسية من مسؤولياتنا تجاه عملائنا… ويقدم هذه الحجج التي تستند إلى تلفيق كامل».

FAQs

هل يمكن استخدام ChatGPT كمحامٍ؟
لا، لا يمكن لـ ChatGPT أن يعمل كمحامٍ مرخص. ومع ذلك، يستخدمه بعض الأفراد كمساعد بحثي لصياغة المستندات وفهم الإجراءات القانونية عند تمثيل أنفسهم في المحكمة.

ما هي مخاطر استخدام الذكاء الاصطناعي في القضايا القانونية؟
الخطر الأكبر هو «الهلوسة»، حيث يختلق الذكاء الاصطناعي معلومات تبدو مقنعة ولكنها خاطئة تماماً، بما في ذلك الاستشهاد بقضايا قضائية غير موجودة. قد يؤدي تقديم معلومات كاذبة للمحكمة إلى عقوبات شديدة أو غرامات أو خسارة القضية.

هل ينجح الأشخاص في استخدام الذكاء الاصطناعي لتمثيل أنفسهم؟
هناك حالات نجاح فردية، مثل لين وايت التي ألغت إخلاءها. ومع ذلك، هناك أيضاً العديد من الحالات التي أدى فيها الاعتماد على الذكاء الاصطناعي إلى نتائج سلبية بسبب عدم دقة المعلومات.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading