في قصة تحذيرية مروعة عن مخاطر الاعتماد على الذكاء الاصطناعي للحصول على نصائح صحية، سمم رجل يبلغ من العمر 60 عامًا نفسه عن طريق الخطأ وقضى ثلاثة أسابيع في المستشفى بعد أن استبدل ملح الطعام ببروميد الصوديوم بناءً على استشارة من ChatGPT.
محتويات المقالة:
- مقدمة: تجربة شخصية تنتهي بكارثة
- ما هو التسمم بالبروم؟ مرض من الماضي
- الذهاب إلى المستشفى: أعراض ذهانية حادة
- التحقيق: كيف اقترح ChatGPT السم؟
- مشكلة الهلوسات: عندما يختلق الذكاء الاصطناعي الحقائق
- رد OpenAI: لا تعتمد علينا كمصدر وحيد للحقيقة
- تذكير حاسم: الذكاء الاصطناعي ليس طبيبًا
- خاتمة: درس قاسٍ حول حدود التكنولوجيا
مقدمة: تجربة شخصية تنتهي بكارثة
أفادت مجلة طبية أمريكية أن رجلاً يبلغ من العمر 60 عامًا طور حالة نادرة بعد أن أزال ملح الطعام من نظامه الغذائي واستبدله ببروميد الصوديوم. الرجل «قرر إجراء التجربة الشخصية» بعد استشارة ChatGPT حول كيفية تقليل تناوله للملح، وفقًا لورقة بحثية في مجلة «Annals of Internal Medicine». تسلط هذه الحالة الضوء بشكل كبير على المخاطر المحتملة لاستخدام روبوتات المحادثة كمصدر للمشورة الطبية.
ما هو التسمم بالبروم؟ مرض من الماضي
أدت التجربة إلى إصابته بالتسمم بالبروم، وهي حالة يمكن أن تسبب الذهان والهلوسة والقلق والغثيان ومشاكل جلدية مثل حب الشباب. كانت هذه الحالة شائعة في القرن التاسع عشر وأوائل القرن العشرين، عندما كانت أقراص البروم توصف بشكل روتيني كمهدئ للصداع وللسيطرة على الصرع. اليوم، هذه الحالة غير مسموع بها عمليًا، حيث يُستخدم بروميد الصوديوم بشكل شائع كمنظف لحمامات السباحة.
الذهاب إلى المستشفى: أعراض ذهانية حادة
وفقًا للورقة الطبية، وصل الرجل إلى قسم الطوارئ «معربًا عن قلقه من أن جاره يسممه». حاول لاحقًا الفرار من المستشفى قبل أن يتم حجزه ووضعه على جرعة من الأدوية المضادة للذهان. قضى الرجل، الذي لم يكن لديه سجل سابق لمشاكل الصحة العقلية، ثلاثة أسابيع في المستشفى.
التحقيق: كيف اقترح ChatGPT السم؟
اكتشف الأطباء لاحقًا أن المريض استشار ChatGPT للحصول على نصيحة بشأن تقليل الملح من نظامه الغذائي، على الرغم من أنهم لم يتمكنوا من الوصول إلى سجل محادثته الأصلي. قاموا باختبار ChatGPT بأنفسهم لمعرفة ما إذا كان سيعيد نتيجة مماثلة. استمر الروبوت في اقتراح استبدال الملح ببروميد الصوديوم و«لم يقدم تحذيرًا صحيًا محددًا».
قال الأطباء إن «هذه الحالة تسلط الضوء على كيف يمكن أن يساهم استخدام الذكاء الاصطناعي في تطوير نتائج صحية ضارة يمكن الوقاية منها».
مشكلة الهلوسات: عندما يختلق الذكاء الاصطناعي الحقائق
لطالما عانت روبوتات الدردشة بالذكاء الاصطناعي من مشكلة تُعرف باسم الهلوسات، مما يعني أنها تختلق الحقائق. يمكنها أيضًا تقديم إجابات غير دقيقة على الأسئلة الصحية، بناءً على كميات هائلة من المعلومات التي يتم جمعها من الإنترنت، بما في ذلك المعلومات الخاطئة والخطيرة.
في العام الماضي، اقترح روبوت محادثة من جوجل على المستخدمين «أكل الصخور» للحفاظ على صحتهم. يبدو أن التعليقات كانت مبنية على تعليقات ساخرة تم جمعها من Reddit وموقع The Onion الساخر.
رد OpenAI: لا تعتمد علينا كمصدر وحيد للحقيقة
قال متحدث باسم OpenAI: «لا يجب أن تعتمد على المخرجات من خدماتنا كمصدر وحيد للحقيقة أو المعلومات الواقعية، أو كبديل للمشورة المهنية». هذا التصريح، على الرغم من دقته، يثير تساؤلات حول مسؤولية الشركات عن المعلومات التي قد تكون ضارة والتي تولدها أنظمتها، خاصة عندما يتم تسويقها على أنها قادرة على الإجابة على أي سؤال تقريبًا.
تذكير حاسم: الذكاء الاصطناعي ليس طبيبًا
تعد هذه القصة بمثابة تذكير حاسم بأن روبوتات المحادثة ليست متخصصين في الرعاية الصحية. على الرغم من أنها يمكن أن تكون أدوات مفيدة للحصول على معلومات عامة، إلا أنها لا ينبغي أبدًا أن تحل محل حكم الطبيب أو الصيدلي أو غيره من المهنيين الصحيين المؤهلين. يمكن أن تكون المخاطر، كما توضح هذه الحالة، مسألة حياة أو موت.
خاتمة: درس قاسٍ حول حدود التكنولوجيا
بينما تستمر قدرات الذكاء الاصطناعي في التطور، يجب أن يزداد وعينا بحدوده. إن سهولة الوصول إلى المعلومات لا تعني دائمًا دقتها أو سلامتها. تقدم قصة هذا الرجل درسًا قاسيًا ومهمًا للجميع: عندما يتعلق الأمر بصحتك، فإن الحكم البشري والخبرة المهنية لا يزالان لا يقدران بثمن.