في خطوة غير مسبوقة من الشفافية لشركة صينية، كشفت شركة الذكاء الاصطناعي الناشئة «DeepSeek» عن تفاصيل حول المخاطر التي تشكلها نماذجها، مشيرة إلى أن النماذج مفتوحة المصدر معرضة بشكل خاص لـ«كسر الحماية» من قبل جهات خبيثة. هذا الكشف، الذي نُشر في مجلة «Nature» المرموقة، يمثل تحولاً هاماً في كيفية تعامل الشركات الصينية مع سلامة الذكاء الاصطناعي.
محتويات المقالة:
- مقدمة: خطوة نادرة نحو الشفافية
- نشر في مجلة Nature: اعتراف عالمي
- ما هي ثغرة «كسر الحماية» (الجيلبريك)؟
- معضلة المصدر المفتوح: الابتكار مقابل المخاطر
- موقف الصين المتطور من سلامة الذكاء الاصطناعي
- هل تشجع هذه الخطوة المزيد من الشفافية؟
- الخاتمة: توازن دقيق بين التطوير والسلامة
- أسئلة شائعة
مقدمة: خطوة نادرة نحو الشفافية
عادة ما تكون شركات الذكاء الاصطناعي الأمريكية، مثل OpenAI و Anthropic، هي التي تنشر أبحاثاً حول مخاطر نماذجها وتضع سياسات للتخفيف منها. في المقابل، كانت الشركات الصينية أقل صراحة بشأن هذه المخاطر، على الرغم من أن نماذجها تتقدم بسرعة. لكن شركة DeepSeek، ومقرها هانغتشو، كسرت هذا النمط، حيث قدمت تفاصيل دقيقة حول تقييمها لمخاطر نماذجها، في خطوة أشاد بها الخبراء.
نشر في مجلة Nature: اعتراف عالمي
نشرت الشركة الناشئة تقييمها في مقال تمت مراجعته من قبل الأقران في المجلة الأكاديمية المرموقة «Nature». هذه الخطوة بحد ذاتها مهمة، حيث أن النشر في مجلة كهذه يتطلب مستوى عالياً من الدقة والشفافية، وقد حظي الخبر باحتفاء واسع في الصين. وجد التقييم أن نماذج الشركة، R1 و V3، حصلت على درجات أمان أعلى قليلاً من المتوسط عبر ستة معايير صناعية مقارنة بنماذج مثل o1 و GPT-4o من OpenAI.
ما هي ثغرة «كسر الحماية» (الجيلبريك)؟
على الرغم من درجات الأمان العالية، وجدت DeepSeek أن نموذجها R1 كان «غير آمن نسبياً» بمجرد إزالة آلية «التحكم في المخاطر» الخارجية. عادةً ما تحاول شركات الذكاء الاصطناعي منع أنظمتها من إنشاء محتوى ضار عن طريق إضافة مرشحات محتوى خارجية. لكن الخبراء حذروا من أنه يمكن تجاوز هذه الإجراءات بسهولة باستخدام تقنيات تُعرف بـ«كسر الحماية». على سبيل المثال، بدلاً من أن يطلب المستخدم الخبيث من النموذج دليلاً لإنشاء قنبلة مولوتوف، يطلب منه بدلاً من ذلك تاريخاً مفصلاً للسلاح، مما يخدع النموذج لتقديم المعلومات المحظورة.
معضلة المصدر المفتوح: الابتكار مقابل المخاطر
وجدت DeepSeek أن جميع النماذج التي تم اختبارها أظهرت «زيادة كبيرة في معدلات» الردود الضارة عند مواجهة هجمات كسر الحماية، مع اعتبار نموذج R1 ونموذج Qwen2.5 من مجموعة علي بابا الأكثر ضعفاً لأنهما مفتوحا المصدر. تُنشر النماذج مفتوحة المصدر مجاناً على الإنترنت لأي شخص يريد تنزيلها وتعديلها. وفي حين أن هذا مفيد لتبني التكنولوجيا، إلا أنه يمكن أن يمكّن المستخدمين أيضاً من إزالة آليات السلامة الخارجية للنموذج. وقال المقال: «ندرك تماماً أنه بينما تسهل المشاركة مفتوحة المصدر نشر التقنيات المتقدمة داخل المجتمع، فإنها تقدم أيضاً مخاطر محتملة لسوء الاستخدام».
موقف الصين المتطور من سلامة الذكاء الاصطناعي
يأتي تحذير DeepSeek في الوقت الذي يشدد فيه صانعو السياسات في الصين على الحاجة إلى الموازنة بين التطوير والسلامة في نظام الذكاء الاصطناعي مفتوح المصدر في البلاد. وحذرت هيئة معايير فنية مرتبطة بإدارة الفضاء الإلكتروني في الصين من الخطر المتزايد لانتقال نقاط ضعف النماذج إلى التطبيقات النهائية من خلال المصدر المفتوح. وقالت الهيئة في تحديث جديد لـ«إطار حوكمة سلامة الذكاء الاصطناعي»: «إن فتح مصادر النماذج التأسيسية… سيوسع تأثيرها ويعقد عمليات الإصلاح، مما يسهل على المجرمين تدريب نماذج خبيثة».
هل تشجع هذه الخطوة المزيد من الشفافية؟
يعتقد الخبراء أن هذا الاعتراف بالمراجعة من قبل الأقران قد يشجع شركات الذكاء الاصطناعي الصينية الأخرى على أن تكون أكثر شفافية بشأن ممارسات السلامة والأمن الخاصة بها، خاصة إذا كانت هذه الشركات ترغب في نشر أعمالها في المجلات العالمية الرائدة. إنها خطوة نحو معايير عالمية مشتركة لمناقشة وتقييم مخاطر الذكاء الاصطناعي، بغض النظر عن بلد منشأ التكنولوجيا.
الخاتمة: توازن دقيق بين التطوير والسلامة
يمثل إعلان DeepSeek لحظة نضج مهمة لصناعة الذكاء الاصطناعي في الصين. إنه اعتراف بأن القوة التكنولوجية الهائلة تأتي مع مسؤولية كبيرة. من خلال الكشف العلني عن نقاط الضعف والدعوة إلى اتخاذ تدابير وقائية، لا تحمي DeepSeek مستخدميها فحسب، بل تساهم أيضاً في حوار عالمي أكثر صدقاً وإنتاجية حول كيفية بناء مستقبل الذكاء الاصطناعي بأمان ومسؤولية.
أسئلة شائعة
س1: ما معنى «كسر حماية» نموذج الذكاء الاصطناعي؟
ج1: هو استخدام تقنيات خداع أو أوامر خاصة لتجاوز قيود السلامة والأخلاق المضمنة في النموذج، مما يجعله يقوم بمهام من المفترض أن يرفضها، مثل إنشاء محتوى ضار أو الكشف عن معلومات حساسة.
س2: لماذا تعتبر النماذج مفتوحة المصدر أكثر عرضة للخطر؟
ج2: لأن أي شخص يمكنه الوصول إلى الكود الأساسي للنموذج وتعديله. هذا يسهل على الجهات الخبيثة إزالة طبقات الحماية الخارجية التي تضيفها الشركة المطورة، مما يترك النموذج الأساسي مكشوفاً للهجمات.
س3: هل يعني هذا أن النماذج مفتوحة المصدر سيئة؟
ج3: لا، النماذج مفتوحة المصدر تدفع الابتكار وتسرع من تطور التكنولوجيا. لكن تحذير DeepSeek يؤكد على أن المطورين الذين يستخدمون هذه النماذج في تطبيقاتهم يجب أن يكونوا على دراية بالمخاطر وأن يبنوا تدابير السلامة الخاصة بهم.