بازينجا

لاما 4

ميتا تكشف عن نموذجين جديدين من لاما 4

Written by

Picture of فريقنا

فريقنا

Communications Consultant

أعلنت ميتا عن إصدارها «Llama 4»، الذي يتضمن نموذجين جديدين يهدفان لمنافسة عمالقة الذكاء الاصطناعي مثل OpenAI وغوغل. يكشف هذا المقال تفاصيل «نموذج ميتا للذكاء الاصطناعي» وقدراته المرتقبة.

أعلنت ميتا عن إصدارها «لاما 4»، الذي يتضمن نموذجين جديدين يهدفان لمنافسة عمالقة الذكاء الاصطناعي مثل أوبن إيه آي وغوغل. يكشف هذا المقال تفاصيل «نموذج ميتا للذكاء الاصطناعي» وقدراته المرتقبة.

محتويات المقالة:

مقدمة

في 06 أبريل 2025، أعلن ويس ديفيس عن إطلاق ميتا نسختها الأحدث من لاما، تحت اسم «لاما 4»، والذي يشمل نموذجين رئيسيين: «لاما 4 Scout» و«لاما 4 Maverick». يأتي ذلك في إطار مساعي ميتا لترسيخ نفسها كمنافس شرس أمام شركات مثل OpenAI ونماذجها GPT-4o، إضافة إلى غوغل ونموذج Gemini 2.0 Flash.

نماذج لاما 4 الجديدة

بحسب تصريحات مارك زوكربيرغ، الرئيس التنفيذي لميتا، فإن الشركة تعمل حالياً على نموذج آخر يحمل اسم «لاما 4 Behemoth»، الذي يعتبره البعض المشروع الأضخم من حيث عدد «المعاملات» (Parameters) والتدريب المكثف، وقد وصفه بأنه «أعلى نماذج الأساس أداءً في العالم».

يتميز «Llama 4 Scout» بصغر حجمه نسبياً، إذ يتسع في بطاقة رسومية واحدة من نوع Nvidia H100 GPU. ورغم صغر حجمه، يستطيع هذا النموذج التعامل مع نافذة سياق تصل إلى 10 مليون «توكن»، متفوقاً بذلك على نماذج خفيفة مثل Gemma 3 من غوغل وGemini 2.0 Flash-Lite، بالإضافة إلى نماذج مفتوحة المصدر مثل Mistral 3.1.

أما «Llama 4 Maverick»، فيأتي بقدرات أكبر تنافس نماذج مثل GPT-4o وGemini 2.0 Flash وDeepSeek-V3، مستهلكاً نصف الموارد النشطة (Active Parameters) التي تحتاجها النماذج الأخرى للوصول إلى نفس مستوى الأداء. تعد هذه الخطوة محاولة من ميتا لاستعراض كفاءة نهج «Mixture of Experts (MoE)» الذي تبنته، والذي يخصص جزءاً من النموذج لمعالجة مهام محددة، مما يجعل العملية أكثر كفاءة.

أشارت ميتا أيضاً إلى أن «لاما 4 Behemoth» يأتي بـ 288 مليار معامل (Active Parameters)، ويصل إجمالي المعاملات إلى 2 تريليون. ورغم أن هذا النموذج لم يُطلق بعد بشكل رسمي، فإن بيانات الشركة تشير إلى تفوقه في اختبارات العلوم والتكنولوجيا والهندسة والرياضيات (STEM) على كلٍّ من GPT-4.5 وClaude Sonnet 3.7.

تقنية MoE وأهميتها

وفقاً لمعلومات من ميتا، فإن هذه النماذج تستخدم بنية «خلط الخبراء» (MoE) بكثافة، وهي تقنية مبتكرة تُقسم النموذج إلى وحدات متخصصة تعالج المهام المحددة التي تحتاج إليها بالضبط، عوضاً عن تشغيل جميع المعاملات دفعة واحدة. تُؤكد ميتا أنها ستعلن المزيد من التفاصيل حول مستقبل «نموذج ميتا للذكاء الاصطناعي» خلال مؤتمر LlamaCon المقرر عقده في 29 أبريل.

المنافسة وترخيص المصدر المفتوح

مع ذلك، فإن مسألة «مفتوح المصدر» بالنسبة إلى لاما 4 تظل موضع جدل، لأن ميتا تفرض بعض القيود على التراخيص التجارية للمؤسسات التي يتجاوز عدد مستخدميها 700 مليون مستخدم نشط شهرياً، مما يدعو نقاداً مثل Open Source Initiative للاعتراض على وصفه بالكامل بأنه «مفتوح المصدر».

خاتمة

إذا صحت وعود ميتا بأداء متفوق وكفاءة أعلى في نماذج لاما 4، فقد تكون هذه خطوة مهمة لمنافسة نماذج OpenAI وغوغل. كما تفتح هذه النماذج الباب أمام تطبيقات أوسع في مجالات متنوعة، من إعداد المحتوى النصي وصناعته، إلى البرمجة وتطوير الألعاب والبحث العلمي.

الأسئلة الشائعة

1. ما الجديد في لاما 4؟
يضم نموذجين رئيسيين هما Scout وMaverick، مع تحضير نموذج ثالث هائل باسم Behemoth، وجميعها تعتمد على تقنيات MoE.

2. ما أبرز ميزات لاما 4 Scout؟
صغر الحجم وإمكانية تشغيله على وحدة معالجة واحدة من نوع Nvidia H100 GPU، مع نافذة سياق تصل لـ 10 مليون توكن.

3. كيف يقارن لاما 4 Maverick بالنماذج الأخرى؟
تشير ميتا إلى تفوقه على GPT-4o وGemini 2.0 Flash من حيث الأداء والسرعة، مستهلكاً موارد أقل.

4. ما وضع لاما 4 Behemoth؟
ما يزال في مرحلة التطوير، ويضم 288 مليار معامل نشط وإجمالي معاملات يبلغ 2 تريليون، مع أداء مبشر في الاختبارات.

5. هل الإصدار مفتوح المصدر تماماً؟
ليس بشكل كامل، إذ يفرض ترخيص ميتا بعض القيود على الاستخدام التجاري للشركات الكبرى، ما يثير حفيظة مجتمع المصادر المفتوحة.

شارك هذا الموضوع:

شارك هذا الموضوع:

اترك رد

اترك رد

المنشورات الأخيرة

اكتشاف المزيد من بازينجا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading