في واقعة تسلط الضوء على مخاطر الاعتماد المفرط على الخوارزميات في المسائل الصحية الحساسة، أزالت جوجل ميزة “نظرة عامة بالذكاء الاصطناعي” لبعض الاستعلامات الطبية المحددة. جاء هذا الإجراء السريع بعد تحقيق استقصائي كشف عن تقديم الميزة لمعلومات مضللة تفتقر إلى السياق الطبي الضروري، مما قد يعرض سلامة المستخدمين للخطر.
محتويات المقالة:
- مقدمة
- التحقيق والنتائج المقلقة
- استجابة جوجل وإزالة المحتوى
- استمرار المشكلة بصيغ أخرى
- رأي الخبراء الطبيين
- أسئلة شائعة
مقدمة
يواجه عملاق البحث “جوجل” تدقيقاً متجدداً حول دقة أدوات الذكاء الاصطناعي الخاصة به في المجال الطبي. فبعد تقرير نشرته صحيفة “الجارديان”، تبين أن الذكاء الاصطناعي يقدم معلومات عامة ومبسطة بشكل مخل، لا تراعي الفروق الفردية الهامة في الفحوصات الطبية، مما دفع الشركة للتدخل وحذف هذه النتائج لبعض الاستعلامات.
التحقيق والنتائج المقلقة
أوضح التقرير أن المستخدمين عندما سألوا عن “النطاق الطبيعي لفحوصات الدم للكبد”، قدم لهم الذكاء الاصطناعي أرقاماً صماء وموحدة. المشكلة الكبرى تكمن في أن هذه الأرقام لم تأخذ في الاعتبار عوامل حيوية مثل الجنسية، الجنس، العرق، أو العمر، وهي عوامل تؤثر بشكل جذري على قراءة النتائج الطبية. هذا التبسيط المخل قد يدفع المستخدمين للاعتقاد خطأً بأن نتائجهم صحية وسليمة بينما هي في الواقع قد تشير إلى مشكلة تتطلب تدخلاً طبياً.
استجابة جوجل وإزالة المحتوى
استجابت جوجل للتقرير وقامت بإزالة الملخصات الذكية لاستعلامات محددة مثل “ما هو النطاق الطبيعي لفحوصات وظائف الكبد”. وصرح متحدث باسم الشركة لصحيفة “الجارديان” بأنهم يعملون باستمرار على إجراء “تحسينات واسعة النطاق”، رغم أنهم لا يعلقون عادة على الحالات الفردية. وأضاف المتحدث أن فريقاً داخلياً من الأطباء راجع الاستعلامات ووجد أن المعلومات في كثير من الحالات “لم تكن غير دقيقة” وكانت مدعومة بمواقع عالية الجودة، في دفاع ضمني عن التقنية.
استمرار المشكلة بصيغ أخرى
رغم الحذف، وجد التحقيق أن المشكلة لم تنتهِ تماماً. فبينما اختفت الملخصات للاستعلامات الدقيقة التي أشار إليها التقرير، إلا أن استخدام صيغ بديلة أو اختلافات بسيطة في صياغة السؤال لا يزال يؤدي في بعض الأحيان إلى ظهور ملخصات مولدة بالذكاء الاصطناعي. هذا يشير إلى أن الحل الذي طبقته جوجل كان “ترقيعياً” وموجهاً لاستعلامات محددة بدلاً من إصلاح جذري للخوارزمية الطبية.
رأي الخبراء الطبيين
رحبت فانيسا هيبديتش، مديرة الاتصالات في مؤسسة الكبد البريطانية، بخطوة الإزالة ووصفتها بأنها “أخبار ممتازة”. لكنها حذرت في الوقت نفسه من أن الحلول الجزئية لا تكفي لضمان سلامة المرضى. قالت هيبديتش: “مصدر قلقنا الأكبر هو أن جوجل تقوم فقط بمعالجة نتائج البحث الفردية التي يتم تسليط الضوء عليها، لكنها لا تعالج القضية الأكبر المتعلقة بمدى ملاءمة استخدام ملخصات الذكاء الاصطناعي للمعلومات الصحية بشكل عام”.
أسئلة شائعة
السؤال: لماذا حذفت جوجل هذه الملخصات؟
الإجابة: لأنها كانت تقدم معلومات غير دقيقة حول فحوصات الكبد، متجاهلة عوامل مثل العمر والجنس.
السؤال: هل تم حل المشكلة بالكامل؟
الإجابة: ليس تماماً، حيث لا تزال بعض الصيغ البديلة للأسئلة تظهر ملخصات ذكية قد تكون غير دقيقة.
السؤال: ما هو خطر هذه الملخصات؟
الإجابة: قد تطمئن المرضى بشكل خاطئ بأنهم بصحة جيدة، أو تثير قلقهم دون داعٍ، بسبب نقص السياق الطبي.