الشارقة، دولة الإمارات العربية المتحدة، 27 نوفمبر 2025 — تحولت الجامعة الأميركية في الشارقة إلى منصة عالمية للحوار حول الذكاء الاصطناعي الموثوق والأنظمة الذكية، مع استضافتها الدورة الثانية عشرة من “المؤتمر الدولي للأنظمة المعتمدة وتطبيقاتها 2025” خلال الفترة من 24 إلى 26 نوفمبر. وشارك في المؤتمر نحو 60 من أبرز الباحثين والخبراء الصناعيين وصنّاع السياسات لمناقشة كيفية تصميم أنظمة ذكية موثوقة يمكن للناس الاعتماد عليها.
محتويات المقالة:
- التركيز على الاعتمادية والتحقق الذكي
- جلسات تقنية متخصصة: من الروبوتات إلى القيادة الذاتية
- الجلسات الافتراضية: دور النماذج اللغوية الضخمة
- صياغة الأجندة العالمية للذكاء الاصطناعي الموثوق
- هندسة الثقة في الأنظمة الذكية
- الأسئلة الشائعة
التركيز على الاعتمادية والتحقق الذكي
مع التوسع في دمج تقنيات الذكاء الاصطناعي في البنى التحتية الحيوية والخدمات العامة، أصبح التأكد من موثوقية هذه الأنظمة أمراً بالغ الأهمية. وركّز المؤتمر على مدى الاعتمادية على الأنظمة الذكية المعقدة، والتحقق الذكي المبني على قواعد رسمية لضمان موثوقية البرمجيات، إضافة إلى بحث سبل التأكد من الاعتمادية على الأنظمة من مرحلة التصميم إلى مراحل إطلاقها وتشغيلها.
جلسات تقنية متخصصة: من الروبوتات إلى القيادة الذاتية
شهد حرم الجامعة يوم 25 نوفمبر جلسات تقنية متخصصة تناولت أحدث موضوعات البحوث في الذكاء التكيفي والاعتمادية في الأنظمة المستقلة والتنبؤية. وتضمّنت الجلسات عروضًا بحثية حول روبوتات تعمل بنماذج لغوية كبيرة متعددة الوسائط، وأطر تقييم أنظمة القيادة الذاتية، وتقنيات التحسين المتقدمة في بيئات الحوسبة السحابية المختلفة.
كما تناولت جلسات أخرى الرسوم البيانية المعرفية، والأنظمة المعتمدة على وكلاء أو روبوتات تتعاون مع بعضها ضمن أنظمة موثوقة، إضافة إلى اختبارات البرمجيات، وتحديد مواقع الأخطاء، وتعزيز متانة الأنظمة، مع تقديم أبحاث حول التقييم الآلي لمخاطر الفضاء الإلكتروني.
الجلسات الافتراضية: دور النماذج اللغوية الضخمة
أما الجلسات الافتراضية التي عُقدت يوم 26 نوفمبر، فركّزت على طيف واسع من الموضوعات شمل ضمان الاعتمادية في أنظمة الحوسبة السحابية والطرفية، والأنظمة الذكية المعتمدة على النماذج اللغوية الضخمة (LLMs)، وبرمجيات المركبات ذاتية القيادة، والتفاعل بين الإنسان والذكاء الاصطناعي.
وأبرزت الجلسات كيف تسهم النماذج اللغوية الضخمة والتكامل بين الحوسبة السحابية والطرفية في إعادة تشكيل مفهوم الاعتمادية، مع التصدي في الوقت نفسه لتحديات مستمرة في مراقبة الأنظمة المتينة، وتحمل الأعطال، وتعزيز السلامة في البيئات الموزعة.
صياغة الأجندة العالمية للذكاء الاصطناعي الموثوق
وأكد الدكتور فادي أحمد العلول، عميد كلية الهندسة في الجامعة الأميركية في الشارقة والرئيس الفخري للمؤتمر، أن هذا الحدث العلمي يعكس الدور المتنامي الذي تضطلع به المنطقة في صياغة أجندة الذكاء الاصطناعي والاعتمادية على المستوى العالمي.
وقال الدكتور العلول: «من خلال استضافة هذا المؤتمر، سعينا إلى ترسيخ مكانة دولة الإمارات كطرف فاعل في النقاش العالمي حول الذكاء الاصطناعي الموثوق والبرمجيات عالية الاعتمادية. تحوّل حرم الجامعة إلى نقطة التقاء للخبراء لتبادل الأفكار حول كيفية بناء أنظمة لا تقتصر على كونها ذكية فحسب، بل تكون أيضاً قادرة على الصمود، وتمتاز بالشفافية، وتكون خاضعة للمساءلة».
هندسة الثقة في الأنظمة الذكية
ومن جانبه، قال الدكتور عمران ذوالقرنين، رئيس قسم علوم وهندسة الحاسوب في الجامعة ورئيس اللجنة التنظيمية العامة للمؤتمر: «جمعت الجامعة الأميركية في الشارقة مجتمعًا بحثيًا عالميًا حول تحدٍّ محوري واحد: كيف نُهندس أنظمة ذكية يمكن للناس الاعتماد عليها. إن النقاشات والشراكات البحثية التي انطلقت هنا ستمهّد الطريق لمشروعات جديدة وأدوات مبتكرة».
وقال الدكتور خالد الفقيه، أستاذ علوم الحاسوب في الجامعة ورئيس اللجنة العلمية لبرنامج المؤتمر: «تكمن قوة هذا المؤتمر في تركيزه على الجانب الهندسي الذي يقف خلف الذكاء الاصطناعي الموثوق. وقد صُمم البرنامج بحيث ينتقل من الشعارات العامة إلى نتائج ملموسة في مجالات التحقق والاختبار وتصميم الأنظمة، بما يتيح لمجتمع المختصين البناء عليها في التطبيقات الواقعية».
ومن المقرر أن تُنشر وقائع المؤتمر من خلال معهد مهندسي الكهرباء والإلكترونيات (IEEE)، وأن تُدرج في قواعد البيانات العالمية الرائدة مثل “سكوبس”، مما يسهم في توسيع أثر الأبحاث التي قُدِّمت في الجامعة.
الأسئلة الشائعة
س: ما المقصود بـ “الذكاء الاصطناعي الموثوق” (Trustworthy AI)؟
ج: يشير إلى أنظمة الذكاء الاصطناعي التي لا تكون فعالة فحسب، بل أيضاً آمنة، وعادلة، وشفافة، وخاضعة للمساءلة. يجب أن تكون هذه الأنظمة قادرة على العمل بشكل يمكن التنبؤ به ومقاومة للأعطال أو الهجمات.
س: ما هو “التحقق الرسمي” (Formal Verification) للبرمجيات؟
ج: هو استخدام أساليب رياضية ومنطقية لإثبات أن نظاماً برمجياً معيناً يتوافق تماماً مع مواصفاته ومتطلباته. يساعد ذلك في ضمان خلو البرمجيات من الأخطاء والثغرات، وهو أمر حيوي في الأنظمة عالية الاعتمادية.
س: كيف تؤثر النماذج اللغوية الضخمة (LLMs) على موثوقية الأنظمة الذكية؟
ج: تقدم النماذج اللغوية الضخمة قدرات هائلة، لكنها تطرح تحديات جديدة فيما يتعلق بالموثوقية، مثل إمكانية توليد معلومات غير دقيقة (الهلوسة)، والتحيز في البيانات، وصعوبة تفسير قراراتها. يركز البحث الحالي على تطوير أساليب لضمان سلامة وموثوقية الأنظمة المعتمدة عليها.