محتويات المقالة:
- مقدمة: فضيحة خصوصية جديدة تهز عالم الذكاء الاصطناعي
- ماذا حدث بالضبط؟
- “زر المشاركة” المضلل
- ما نوع المعلومات التي تم كشفها؟
- ليست المرة الأولى: نمط متكرر في روبوتات الدردشة
- “كارثة خصوصية قيد التكوين”
- الخاتمة: فكر مرتين قبل أن تشارك
مقدمة: فضيحة خصوصية جديدة تهز عالم الذكاء الاصطناعي
في كشف مقلق، تبين أن مئات الآلاف من محادثات المستخدمين مع روبوت الدردشة “جروك” (Grok) التابع لإيلون ماسك قد تم كشفها في نتائج محرك بحث غوغل، على ما يبدو دون علم المستخدمين. هذه الحادثة تسلط الضوء مرة أخرى على المخاطر الكبيرة المتعلقة بالخصوصية في عصر روبوتات الدردشة، وتؤكد أن ما تعتقده محادثة خاصة قد يصبح بسهولة سجلاً عامًا.
ماذا حدث بالضبط؟
كشف بحث بسيط على غوغل عن فهرسة ما يقرب من 300,000 محادثة فريدة مع “جروك”. هذا يعني أن أي شخص لديه إمكانية الوصول إلى الإنترنت يمكنه قراءة هذه المحادثات، والتي تحتوي في كثير من الأحيان على معلومات شخصية وحساسة. كانت المشكلة واسعة النطاق لدرجة أن بعض التقارير قدرت العدد بأكثر من 370,000 محادثة.
“زر المشاركة” المضلل
يبدو أن المشكلة تنبع من وظيفة “المشاركة” في “جروك”. عندما يضغط المستخدمون على زر لمشاركة نسخة من محادثتهم، يتم إنشاء رابط فريد. لكن ما لم يكن واضحًا لمعظم المستخدمين هو أن إنشاء هذا الرابط لا يشاركه فقط مع المستلم المقصود، بل يجعله أيضًا قابلاً للبحث والفهرسة العامة من قبل محركات البحث مثل غوغل. لم يكن هناك تحذير واضح بأن “المشاركة” تعني فعليًا “النشر للعامة”.
ما نوع المعلومات التي تم كشفها؟
تنوعت المحادثات المكشوفة بشكل كبير. شاهدت بي بي سي أمثلة حيث طُلب من روبوت الدردشة إنشاء كلمة مرور آمنة، وتقديم خطط وجبات لفقدان الوزن، والإجابة على أسئلة مفصلة حول حالات طبية. كما أظهرت بعض النصوص محاولات المستخدمين لاختبار حدود ما سيقوله “جروك” أو يفعله. في أحد الأمثلة الصادمة، قدم روبوت الدردشة تعليمات مفصلة حول كيفية صنع مخدر من الفئة (أ) في المختبر.
ليست المرة الأولى: نمط متكرر في روبوتات الدردشة
ليست هذه هي المرة الأولى التي تظهر فيها محادثات خاصة مع روبوتات الدردشة على نطاق أوسع مما كان متوقعًا. واجهت OpenAI مؤخرًا انتقادات بسبب “تجربة” مماثلة أدت إلى ظهور محادثات ChatGPT في نتائج البحث. وفي وقت سابق من هذا العام، واجهت ميتا انتقادات بعد ظهور محادثات المستخدمين مع Meta AI في موجز “اكتشاف” عام على تطبيقها. يبدو أن هناك نمطًا مقلقًا حيث لا تكون وظائف “المشاركة” في هذه الخدمات شفافة بشأن العواقب على الخصوصية.
“كارثة خصوصية قيد التكوين”
يصف الخبراء هذا الوضع بأنه “كارثة خصوصية قيد التكوين”. يقول البروفيسور لوك روشر من معهد أكسفورد للإنترنت: «كشفت المحادثات المسربة من روبوتات الدردشة عن معلومات المستخدمين التي تتراوح من الأسماء الكاملة والموقع، إلى تفاصيل حساسة حول صحتهم العقلية أو عملياتهم التجارية». ويضيف: «بمجرد تسريبها عبر الإنترنت، ستبقى هذه المحادثات هناك إلى الأبد». وتؤكد كاريسا فيليز، الأستاذة المشاركة في معهد الأخلاقيات في الذكاء الاصطناعي بجامعة أكسفورد، أن عدم إخبار المستخدمين بأن الدردشات المشتركة ستظهر في نتائج البحث هو أمر “إشكالي”.
الخاتمة: فكر مرتين قبل أن تشارك
تسلط حادثة “جروك” الضوء على حاجة ماسة لمزيد من الشفافية والتحكم في كيفية تعامل شركات الذكاء الاصطناعي مع بياناتنا. لا يكفي أن تكون المحادثات “خاصة بشكل افتراضي” إذا كانت وظيفة أساسية مثل “المشاركة” يمكن أن تعرضها للعالم دون تحذير كافٍ. بالنسبة للمستخدمين، الدرس واضح: كن حذرًا للغاية بشأن المعلومات التي تشاركها مع أي روبوت دردشة، وافترض دائمًا أن أي شيء تشاركه يمكن أن يصبح عامًا. حتى يتم تنظيم هذه التقنيات بشكل أفضل، تقع مسؤولية حماية خصوصيتنا على عاتقنا بشكل كبير.
أسئلة شائعة
س: من هو “جروك” (Grok)؟
ج: هو روبوت دردشة بالذكاء الاصطناعي تم تطويره بواسطة شركة xAI التابعة لإيلون ماسك، وهو مدمج في منصة التواصل الاجتماعي X (تويتر سابقًا) ويتميز بأسلوبه الساخر وغير الملتزم في بعض الأحيان.
س: هل تم حذف المحادثات المكشوفة؟
ج: بعد الكشف عن المشكلة، بدأت أعداد المحادثات المفهرسة في الانخفاض، مما يشير إلى أن X أو غوغل قد اتخذتا خطوات لمعالجتها. ومع ذلك، بمجرد أن تكون المعلومات على الإنترنت، قد يكون من الصعب إزالتها بالكامل.
س: كيف يمكنني حماية خصوصيتي عند استخدام روبوتات الدردشة؟
ج: تجنب مشاركة أي معلومات شخصية أو حساسة (مثل الأسماء الكاملة، والعناوين، والمعلومات المالية أو الطبية). لا تستخدم وظائف “المشاركة” ما لم تكن متأكدًا تمامًا من كيفية عملها، وراجع إعدادات الخصوصية في حسابك بانتظام.