بازينجا

سلامة الذكاء الاصطناعي

قادة أبحاث الذكاء الاصطناعي يدعون إلى مراقبة “أفكار” النماذج لضمان السلامة

Written by

Picture of فريقنا

فريقنا

Communications Consultant

في لحظة وحدة نادرة، يدعو باحثون من OpenAI وجوجل ديب مايند وأنثروبيك وغيرها من الشركات الكبرى إلى إجراء تحقيق أعمق في مراقبة ما يسمى بـ “أفكار” نماذج الذكاء الاصطناعي، معتبرين أنها قد تكون الطريقة الأساسية للحفاظ على السيطرة على وكلاء الذكاء الاصطناعي الأقوياء.

مقدمة: نظرة خاطفة داخل العقل الاصطناعي

يدعو باحثو الذكاء الاصطناعي من OpenAI، وجوجل ديب مايند، وأنثروبيك، وتحالف واسع من الشركات والمجموعات غير الربحية، إلى إجراء تحقيق أعمق في تقنيات مراقبة ما يسمى بـ«أفكار» نماذج التفكير في الذكاء الاصطناعي، وذلك في ورقة موقف نُشرت يوم الثلاثاء. هذه الدعوة الموحدة تأتي في وقت تتزايد فيه قدرات الذكاء الاصطناعي بشكل كبير، ومعها تزداد المخاوف بشأن كيفية ضمان سلامتها والتحكم فيها.

سلسلة الأفكار (CoT): مفتاح الفهم

الميزة الرئيسية لنماذج التفكير في الذكاء الاصطناعي، مثل o3 من OpenAI و R1 من DeepSeek، هي «سلاسل أفكارها» (Chains-of-Thought أو CoTs) – وهي عملية خارجية تعمل من خلالها نماذج الذكاء الاصطناعي على حل المشكلات، على غرار كيفية استخدام البشر لورقة مسودة لحل مسألة رياضية صعبة. تعتبر نماذج التفكير تقنية أساسية لتشغيل وكلاء الذكاء الاصطناعي، ويجادل مؤلفو الورقة بأن مراقبة سلسلة الأفكار (CoT) يمكن أن تكون طريقة أساسية للحفاظ على سيطرة وكلاء الذكاء الاصطناعي مع انتشارهم وقدرتهم.

قال الباحثون في ورقة الموقف: «تقدم مراقبة CoT إضافة قيمة لتدابير السلامة للذكاء الاصطناعي الحدودي، حيث تقدم لمحة نادرة عن كيفية اتخاذ وكلاء الذكاء الاصطناعي للقرارات. ومع ذلك، لا يوجد ما يضمن استمرار الدرجة الحالية من الرؤية. نحن نشجع مجتمع البحث ومطوري الذكاء الاصطناعي الحدودي على الاستفادة القصوى من قابلية مراقبة CoT ودراسة كيفية الحفاظ عليها».

دعوة للعمل والأبحاث

تطلب ورقة الموقف من مطوري نماذج الذكاء الاصطناعي الرائدين دراسة ما الذي يجعل سلاسل الأفكار «قابلة للمراقبة» – وبعبارة أخرى، ما هي العوامل التي يمكن أن تزيد أو تقلل من الشفافية في كيفية وصول نماذج الذكاء الاصطناعي حقًا إلى الإجابات. يقول مؤلفو الورقة إن مراقبة CoT قد تكون طريقة رئيسية لفهم نماذج التفكير في الذكاء الاصطناعي، لكنهم يلاحظون أنها قد تكون هشة، ويحذرون من أي تدخلات يمكن أن تقلل من شفافيتها أو موثوقيتها.

كما يدعو مؤلفو الورقة مطوري نماذج الذكاء الاصطناعي إلى تتبع قابلية مراقبة CoT ودراسة كيف يمكن تنفيذ هذه الطريقة يومًا ما كإجراء للسلامة.

وحدة نادرة في صناعة متنافسة

تمثل الورقة لحظة وحدة بين العديد من قادة صناعة الذكاء الاصطناعي في محاولة لتعزيز الأبحاث حول سلامة الذكاء الاصطناعي. يأتي هذا في وقت تقع فيه شركات التكنولوجيا في منافسة شرسة – مما أدى إلى قيام ميتا باستقطاب كبار الباحثين من OpenAI وجوجل ديب مايند وأنثروبيك بعروض بملايين الدولارات. من بين الموقعين البارزين على الورقة رئيس الأبحاث في OpenAI مارك تشين، والرئيس التنفيذي لـ Safe Superintelligence إيليا سوتسكيفر، والحائز على جائزة نوبل جيفري هينتون، والمؤسس المشارك لـ جوجل ديب مايند شين ليج.

قال بوين بيكر، الباحث في OpenAI الذي عمل على الورقة: «نحن في هذا الوقت الحرج حيث لدينا هذا الشيء الجديد المسمى سلسلة الأفكار. يبدو مفيدًا جدًا، لكنه قد يختفي في غضون سنوات قليلة إذا لم يركز الناس عليه حقًا. نشر ورقة موقف مثل هذه، بالنسبة لي، هو آلية للحصول على المزيد من الأبحاث والاهتمام بهذا الموضوع قبل حدوث ذلك».

الخاتمة: السباق نحو الشفافية

على الرغم من أن مختبرات الذكاء الاصطناعي قد تفوقت في تحسين أداء الذكاء الاصطناعي في العام الماضي، إلا أن ذلك لم يترجم بالضرورة إلى فهم أفضل لكيفية وصولها إلى إجاباتها. تعتبر شركات مثل أنثروبيك من رواد الصناعة في محاولة معرفة كيفية عمل نماذج الذكاء الاصطناعي حقًا – وهو مجال يسمى القابلية للتفسير (interpretability). تشير هذه الورقة إلى أن الصناعة ككل تدرك الآن أن بناء ذكاء اصطناعي أقوى يجب أن يسير جنبًا إلى جنب مع بناء ذكاء اصطناعي أكثر شفافية وأمانًا.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading