يكشف استطلاع جديد أن 39% من الأمريكيين يثقون في أدوات مثل ChatGPT لاتخاذ قرارات الرعاية الصحية. يأتي هذا الاعتماد المتزايد في وقت حذرت فيه دراسات من أن روبوتات الدردشة توقفت إلى حد كبير عن تضمين إخلاء المسؤولية الطبية، مما قد يساهم في ثقة مفرطة وخطيرة.
محتويات المقالة:
- ثقة متزايدة في الطبيب الرقمي
- اختفاء إخلاءات المسؤولية: مشكلة متنامية
- لماذا يلجأ الناس إلى الذكاء الاصطناعي؟
- اختلافات بين الجنسين والأعمار
- مخاطر المعلومات المضللة
- مخاطر الخصوصية: HIPAA والبيانات الحساسة
- الخاتمة: مرض مجتمعي قد يزداد سوءاً
- أسئلة شائعة
ثقة متزايدة في الطبيب الرقمي
في استطلاع جديد شمل 2,000 أمريكي، قال 39% من المشاركين إنهم يثقون في أدوات مثل ChatGPT في اتخاذ قرارات الرعاية الصحية. هذا الشعور فاق المشاعر المحايدة (31%) وعدم الثقة الصريح في روبوتات الدردشة في هذه الأمور (30%). تظهر هذه البيانات كيف أصبح الناس يعتمدون بشكل متزايد على برامج الذكاء الاصطناعي عند التنقل في نظام الرعاية الصحية المعقد.
اختفاء إخلاءات المسؤولية: مشكلة متنامية
تأتي هذه البيانات بعد أسابيع فقط من نشر باحثين دراسة تظهر أن نماذج الذكاء الاصطناعي من شركات تشمل «أوبن إيه آي» و«أنثروبيك» وجوجل توقفت إلى حد كبير عن تضمين إخلاءات المسؤولية بشأن اتباع نصائحها الطبية، والتي كانت قياسية في السابق. في حين أن 26% من إجابات روبوتات الدردشة على الاستفسارات الصحية في عام 2022 كانت تحتوي على نوع من التحذير، فإن أقل من 1% من الإجابات في عام 2025 لديها مثل هذا التذكير. قد يساهم هذا النقص في السياق في الثقة المفرطة في روبوتات الدردشة كمعادل افتراضي للخبراء الطبيين المؤهلين.
لماذا يلجأ الناس إلى الذكاء الاصطناعي؟
تشير بيانات الاستطلاع إلى أن عدم الرضا عن نظام الرعاية الصحية في الولايات المتحدة قد يكون عاملاً دافعاً. أظهرت البيانات أن 31% من الأمريكيين يستخدمون روبوتات الدردشة لإعداد أسئلة لزيارات الطبيب، بينما يتطلع 23% إلى تجنب النفقات الطبية. وقال 20% من المشاركين إنهم لجأوا إلى نماذج اللغة الكبيرة للحصول على رأي ثانٍ، بينما يعتقد 17% أنها مفيدة لتجنب التحيز أو المعاملة غير العادلة في نظام الرعاية الصحية.
اختلافات بين الجنسين والأعمار
وجد الاستطلاع أن الرجال أكثر عرضة للثقة في النصائح الطبية من روبوت: قال 48% إن هذا مصدر موثوق للمعلومات الصحية، مقارنة بـ 31% من النساء. كان المستخدمون في منتصف العمر أكثر ثقة أيضاً، حيث قال 52% من البالغين الذين تتراوح أعمارهم بين 45 و54 عاماً إنهم يمكنهم الاعتماد على نماذج الذكاء الاصطناعي للمساعدة في الأسئلة الطبية.
مخاطر المعلومات المضللة
من الواضح أن روبوتات الدردشة لا يمكنها فحص الفرد كما يفعل الطبيب، ويمكنها تقديم توصيات خطيرة بناءً على استنتاجات غير دقيقة. ومع ذلك، كما وجدت دراسة حديثة أخرى، يقيم الناس الإجابات غير الدقيقة التي يولدها الذكاء الاصطناعي حول وضعهم الطبي بنفس درجة تقييمهم للإجابات التي كتبها أطباء حقيقيون. أشار المشاركون في الدراسة أيضاً إلى «ميل عالٍ لاتباع النصائح الطبية التي يحتمل أن تكون ضارة» التي تقدمها روبوتات الدردشة.
مخاطر الخصوصية: HIPAA والبيانات الحساسة
بالإضافة إلى ذلك، لا تمتثل نماذج اللغة الكبيرة لقانون قابلية نقل التأمين الصحي والمساءلة (HIPAA)، وهي غير مصممة للتعامل مع البيانات الصحية الحساسة. قد يؤدي تحميل الصور الطبية، على سبيل المثال، إلى تعريض المستخدمين للخطر في حالة حدوث خرق للخصوصية.
الخاتمة: مرض مجتمعي قد يزداد سوءاً
من الواضح أن هذه المخاوف لم تمنع العديد من الأمريكيين من معاملة ChatGPT وأمثاله كأطباء ومعالجين متاحين على مدار الساعة طوال أيام الأسبوع. لا شك أن هذه الراحة، والعقبات المختلفة التي تحول دون الحصول على العلاج في الولايات المتحدة، والنظرة الافتراضية لروبوتات الدردشة كخبراء موثوقين في أي موضوع، قد ساهمت في تضليل الناس. ما لم تعزز الثقافة شكوكاً أعمق تجاه الذكاء الاصطناعي كمصدر للمعرفة اللامتناهية، فهذا مرض مجتمعي قد يزداد سوءاً.
أسئلة شائعة
هل من الآمن استخدام ChatGPT للحصول على نصائح طبية؟
لا. يحذر الخبراء والأطباء بشدة من ذلك. يمكن لروبوتات الدردشة أن تخطئ، وتقدم معلومات غير دقيقة أو خطيرة، وهي ليست بديلاً عن استشارة أخصائي رعاية صحية مؤهل.
لماذا يثق الناس في الذكاء الاصطناعي لهذه الدرجة؟
الأسباب معقدة وتشمل سهولة الوصول، وتكاليف الرعاية الصحية المرتفعة، والرغبة في الحصول على رأي ثانٍ، والاعتقاد الخاطئ بأن الذكاء الاصطناعي موثوق ومحايد.
هل تحمي روبوتات الدردشة خصوصيتي الطبية؟
لا. إنها غير متوافقة مع قوانين الخصوصية الطبية مثل HIPAA. مشاركة المعلومات الصحية الحساسة معها يعرضك لخطر انتهاك الخصوصية.