الخلاصة الأساسية
يُعد Google Gemma 4 أقوى عائلة نماذج مفتوحة الأوزان تم إصدارها على الإطلاق بموجب ترخيص مرن حقًا. يسجل نموذج 31B Dense نسبة 85.2% في MMLU Pro ويحتل المرتبة 3 بين جميع النماذج المفتوحة في Arena AI — بينما يحقق 26B MoE جودة متطابقة تقريبًا مع 3.8B فقط من الـ active parameters. لأول مرة، يتم شحن Gemma بموجب Apache 2.0، مما يزيل كل عوائق الترخيص التي أعاقت الاعتماد التجاري للأجيال السابقة.
Google Gemma 4: كل ما تحتاج إلى معرفته
نظرة عامة على الإصدار
أصدرت Google DeepMind نموذج Gemma 4 في April 2, 2026، مقدمة أربعة أحجام من النماذج المبنية على نفس الأساس التكنولوجي لـ Gemini 3. يمثل هذا الجيل أكبر قفزة في عائلة Gemma عبر كل الأبعاد: جودة النموذج، القدرات متعددة الوسائط، طول السياق، وشروط الترخيص.
التغييرات الرئيسية عن Gemma 3:
- ترخيص Apache 2.0 — لا توجد قيود على الاستخدام، ولا يوجد ترخيص مخصص، وحرية تجارية كاملة
- أربعة أحجام للنماذج بدلاً من ثلاثة، بما في ذلك هندسة MoE جديدة
- دعم أصلي متعدد الوسائط عبر جميع الأحجام (النصوص، الصور، الفيديو، الصوت)
- وضع تفكير قابل للتكوين مع سلاسل استدلال تزيد عن 4,000 tokens
- نوافذ سياق 256K في النماذج الأكبر (زيادة عن حدود Gemma 3)
- أكثر من 35 لغة مدعومة، مع تدريب مسبق على أكثر من 140 لغة
- استخدام الأدوات المنظم لسير العمل الوكيل (agentic)
أحجام النماذج الأربعة
يأتي Gemma 4 في أربعة أحجام متميزة، يستهدف كل منها سيناريوهات نشر مختلفة:
| النموذج | المعلمات | المعلمات النشطة | الهندسة المعمارية | السياق | الوسائط |
|---|---|---|---|---|---|
| E2B | 2.3B effective | 2.3B | Dense | 128K | Text, Image, Video, Audio |
| E4B | 4.5B effective | 4.5B | Dense | 128K | Text, Image, Video, Audio |
| 26B MoE | 26B total | 3.8B | Mixture of Experts | 256K | Text, Image |
| 31B Dense | 31B | 31B | Dense | 256K | Text, Image |
E2B و E4B: نماذج الحافة (Edge Models)
تم تصميم أصغر نماذج Gemma 4 للنشر على الأجهزة. مع 2.3B و 4.5B من الـ effective parameters على التوالي، يمكن تشغيلها على الهواتف الذكية والأجهزة اللوحية وأجهزة الكمبيوتر المحمولة بذاكرة RAM منخفضة تصل إلى 5GB باستخدام 4-bit quantization.
ما يجعل هذه النماذج رائعة هو اتساع نطاق وسائطها. على الرغم من كونها الأصغر في العائلة، إلا أن E2B و E4B هما نموذجا Gemma 4 الوحيدان اللذان يدعمان جميع وسائط الإدخال الأربعة: النصوص، الصور، الفيديو، والصوت. هذا خيار تصميمي متعمد — حيث تستفيد أجهزة الحافة المزودة بكاميرات وميكروفونات بشكل أكبر من القدرات متعددة الوسائط.
يدعم كلا النموذجين نوافذ سياق تبلغ 128K tokens، وهو أمر سخي بالنسبة لعدد معلماتها وكافٍ لمعظم حالات الاستخدام على الأجهزة.
26B MoE: الكفاءة القصوى
يُعد نموذج 26B Mixture of Experts هو النموذج الأكثر إثارة للاهتمام في تشكيلة Gemma 4. فهو يحتوي على 26B total parameters ولكنه ينشط فقط 3.8B parameters لأي إدخال معين — وهو ما يقرب من نفس تكلفة الحوسبة لنموذج E4B ولكن مع إمكانية الوصول إلى معرفة وقدرات أكبر بكثير.
في Arena AI، يحتل 26B MoE المرتبة 6 بين جميع النماذج المفتوحة بنتيجة 1441، على الرغم من استخدامه لـ 3.8B فقط من الـ active parameters. نسبة الكفاءة هذه غير مسبوقة — فلا يوجد نموذج آخر يحقق جودة مماثلة بتكلفة الحوسبة هذه.
تقوم هندسة MoE بتوجيه كل token عبر شبكات فرعية متخصصة (experts)، مما يسمح للنموذج بالحفاظ على قدرة معرفية كبيرة مع الحفاظ على انخفاض تكلفة الاستدلال (inference). بالنسبة لسيناريوهات النشر التي تحتاج فيها إلى استدلال قوي ولكن لديك ذاكرة GPU محدودة، فإن 26B MoE هو الخيار الأمثل.
31B Dense: الجودة القصوى
نموذج 31B Dense هو الرائد في Gemma 4. كل معلمة نشطة لكل token، مما يمنحه المخرجات الأكثر اتساقًا والأعلى جودة عبر جميع أنواع المهام.
في Arena AI، يحتل 31B Dense المرتبة 3 بين جميع النماذج المفتوحة بنتيجة 1452. وفي MMLU Pro، يحقق 85.2% — وهي نتيجة تنافسية مع نماذج أكبر منه بعدة مرات. وتظهر نتيجة 89.2% في AIME 2026 استدلالاً رياضيًا قويًا، بينما تظهر نتيجة 74% في BigBench Extra Hard (ارتفاعًا من 19% في الأجيال السابقة) تحسنًا هائلاً في مهام الاستدلال المعقدة.
مقاييس الأداء: البيانات الكاملة
الاستدلال والمعرفة
| المقياس | 31B Dense | 26B MoE | ملاحظات |
|---|---|---|---|
| MMLU Pro | 85.2% | — | معرفة بمستوى الدراسات العليا |
| AIME 2026 | 89.2% | — | رياضيات المسابقات |
| BigBench Extra Hard | 74% | — | ارتفاعًا من 19% في الجيل السابق |
| Arena AI Score | 1452 (3rd) | 1441 (6th) | تصنيفات النماذج المفتوحة |
المصدر: تقرير Google DeepMind الفني
BigBench Extra Hard: النتيجة الأبرز
تستحق القفزة من 19% إلى 74% في BigBench Extra Hard اهتمامًا خاصًا. يختبر هذا المقياس الاستدلال المعقد متعدد الخطوات، والاستنتاج المنطقي، والمهام التي تتطلب فهمًا حقيقيًا بدلاً من مجرد مطابقة الأنماط. يشير التحسن بمقدار 55 نقطة مئوية في جيل واحد إلى تقدم أساسي في بنية الاستدلال في Gemma 4، وليس مجرد زيادة في الحجم.
من المرجح أن هذا التحسن مرتبط بوضع التفكير القابل للتكوين وتكنولوجيا Gemini 3 الأساسية التي بُني عليها Gemma 4. يولد وضع التفكير سلاسل استدلال ممتدة تساعد النموذج على العمل من خلال المشكلات المعقدة خطوة بخطوة.
سياق تصنيفات Arena AI
تصنف Arena AI النماذج بناءً على مقارنات تفضيل بشرية مباشرة. وضع 31B Dense بنتيجة 1452 واحتلاله المرتبة 3 بين النماذج المفتوحة يجعله فوق العديد من النماذج التي تحتوي على عدد أكبر بكثير من المعلمات. للسياق:
- النماذج التي تحتل مرتبة أعلى منه هي عادة نماذج تحتوي على 70B+ parameters
- تحقيق 26B MoE لنتيجة 1441 مع 3.8B فقط من الـ active parameters يعد اختراقًا في الكفاءة
- يتفوق كلا النموذجين على Gemma 3 27B السابق بفارق كبير
القدرات متعددة الوسائط
فهم الصور
تعالج جميع نماذج Gemma 4 الأربعة الصور بشكل أصلي. وتشمل القدرات ما يلي:
- وصف الصور وتحليلها — فهم مفصل للمحتوى البصري
- OCR ومعالجة المستندات — استخراج النص من الصور، الإيصالات، ولقطات الشاشة
- تفسير المخططات والرسوم البيانية — فهم تصورات البيانات
- الاستدلال البصري — الإجابة على الأسئلة التي تتطلب فهم العلاقات المكانية
الفيديو والصوت (E2B/E4B فقط)
تضيف النماذج الأصغر E2B و E4B معالجة أصلية للفيديو والصوت:
- فهم الفيديو — تحليل محتوى الفيديو دون الحاجة لاستخراج الإطارات إطارًا بإطار
- نسخ الصوت وفهمه — معالجة الكلام والأصوات البيئية
- الاستدلال عبر الوسائط — الإجابة على الأسئلة التي تمتد عبر مدخلات النص، الصور، الفيديو، والصوت
يعكس خيار التصميم هذا تركيز Google على النشر في الحافة. تلتقط الأجهزة المحمولة الفيديو والصوت بشكل أصلي، لذا فإن النماذج المصممة لتلك الأجهزة تدعم هذه الوسائط.
وضع التفكير القابل للتكوين
يقدم Gemma 4 وضع تفكير قابل للتكوين يولد أكثر من 4,000 tokens من الاستدلال الداخلي قبل إنتاج الاستجابة. هذا يشابه قدرات التفكير الممتد الموجودة في نماذج Claude وسلسلة o من OpenAI، ولكن تم تنفيذه في نموذج مفتوح الأوزان.
كيف يعمل
عند تمكين وضع التفكير، يقوم النموذج بـ:
- استقبال مطالبة الإدخال (prompt)
- توليد سلسلة استدلال داخلية (مرئية أو مخفية، حسب التكوين)
- استخدام سلسلة الاستدلال لإنتاج استجابة نهائية أعلى جودة
يمكن تبديل وضع التفكير لكل طلب، مما يسمح للمطورين بـ:
- تمكين التفكير لمهام الرياضيات المعقدة، المنطق، البرمجة، والتحليل
- تعطيل التفكير للاستفسارات البسيطة، الدردشة، والتطبيقات الحساسة للتأخير (latency)
- تعديل عمق التفكير بناءً على التعقيد المتوقع للمهمة
التأثير على الجودة
يعد وضع التفكير محركًا أساسيًا وراء أداء Gemma 4 القوي في مقاييس الأداء. تم تحقيق نتيجة AIME 2026 البالغة 89.2% ونتيجة BigBench Extra Hard البالغة 74% مع تمكين وضع التفكير. بدون وضع التفكير، ستكون هذه النتائج أقل بشكل ملحوظ — على غرار النمط المشاهد في النماذج الأخرى ذات قدرات الاستدلال الممتد.
Apache 2.0: لماذا يهم تغيير الترخيص
تم شحن أجيال Gemma السابقة بموجب ترخيص Gemma المخصص من Google، والذي تضمن قيودًا على:
- الاستخدام في تطبيقات معينة
- شروط إعادة التوزيع
- قيود النشر التجاري للاستخدام على نطاق واسع
ينتقل Gemma 4 إلى Apache 2.0، وهو نفس الترخيص المستخدم في مشاريع مثل Kubernetes و TensorFlow و Apache HTTP Server. وهذا يعني:
- لا توجد قيود على الاستخدام — استخدمه لأي شيء، بما في ذلك المنتجات التجارية
- لا توجد قيود على إعادة التوزيع — شارك الأوزان المعدلة بحرية
- لا توجد متطلبات عزو بخلاف الترخيص — إشعار Apache 2.0 القياسي
- لا حاجة لموافقة Google — انشر بأي نطاق دون إذن
- متوافق مع التراخيص مفتوحة المصدر الأخرى — من السهل دمجه في المشاريع الحالية
بالنسبة للمؤسسات والشركات الناشئة التي تبني منتجات فوق النماذج المفتوحة، فإن هذا يزيل عبء المراجعة القانونية الذي كان يتطلبه ترخيص Gemma المخصص. كما يجعل Gemma 4 قابلاً للمقارنة مباشرة مع نماذج Llama من Meta (التي تستخدم ترخيصها المخصص مع بعض القيود) ويضعه كأكثر عائلة نماذج مفتوحة عالية الجودة مرونة في الترخيص متاحة حاليًا.
دعم اللغات
يدعم Gemma 4 أكثر من 35 لغة للاستدلال وتم تدريبه مسبقًا على أكثر من 140 لغة. وهذا يجعله واحدًا من أكثر النماذج المفتوحة دعمًا للغات المتعددة، إلى جانب نماذج Qwen التي تؤكد أيضًا على التغطية اللغوية الواسعة.
تشمل اللغات المدعومة لغات العالم الرئيسية (الإنجليزية، الصينية، الإسبانية، الفرنسية، الألمانية، اليابانية، الكورية، العربية، الهندية، البرتغالية، الروسية) بالإضافة إلى العديد من اللغات ذات الحضور الرقمي الأصغر. التدريب المسبق على أكثر من 140 لغة يعني أن النموذج لديه بعض القدرة في لغات تتجاوز الـ 35 لغة المدعومة رسميًا، على الرغم من أن الجودة قد تختلف.
بالنسبة للتطبيقات التي تستهدف جماهير عالمية أو أسواقًا غير ناطقة بالإنجليزية، فإن هذا الدعم الواسع للغات يقلل من الحاجة إلى fine-tuning متخصص أو نماذج منفصلة لكل لغة.
استخدام الأدوات المنظم وسير العمل الوكيل (Agentic)
يتضمن Gemma 4 دعمًا أصليًا لاستخدام الأدوات المنظم، مما يتيح سير عمل وكيل حيث يمكن للنموذج:
- استدعاء واجهات برمجة التطبيقات الخارجية (API) بطلبات منسقة بشكل صحيح
- تحليل الاستجابات المنظمة من الأدوات والخدمات
- ربط استدعاءات أدوات متعددة لإكمال المهام المعقدة
- التعامل مع الأخطاء وإعادة المحاولة في تنفيذ الأدوات
تعد هذه القدرة ذات صلة خاصة بـ تكامل Android Studio، حيث يدعم Gemma 4 سير عمل البرمجة الوكيل المحلي. يمكن للنموذج فهم سياق الكود، واقتراح التغييرات، وتنفيذ الأدوات، والتكرار — وكل ذلك يعمل محليًا على جهاز المطور دون إرسال الكود إلى خوادم خارجية.
بالنسبة للمطورين الذين يبنون وكلاء ذكاء اصطناعي (AI agents)، يوفر استخدام الأدوات المنظم في Gemma 4 أساسًا محليًا وخاصًا بالكامل. وبالاقتران مع ترخيص Apache 2.0، فإن هذا يتيح بناء ونشر تطبيقات وكيلة دون أي اعتماد على مزودي النماذج الخارجيين.
متطلبات الأجهزة
النشر المحلي عبر Ollama
| النموذج | ذاكرة RAM المطلوبة (4-bit) | ذاكرة RAM المطلوبة (FP16) | توصية GPU |
|---|---|---|---|
| E2B | ~5 GB | ~5 GB | Any modern GPU / CPU only |
| E4B | ~5 GB | ~9 GB | Any modern GPU / CPU only |
| 26B MoE | ~18 GB | ~52 GB | RTX 4090 / RTX 5090 |
| 31B Dense | ~20 GB | ~62 GB | RTX 4090 / RTX 5090 |
تم تصميم نموذجي E2B و E4B خصيصًا للنشر في الحافة. يعملان بشكل مريح على أجهزة الكمبيوتر المحمولة، ووحدات المعالجة المركزية لسطح المكتب، وحتى بعض الهواتف الذكية. تتطلب نماذج 26B MoE و 31B Dense أجهزة GPU مخصصة ولكنها تظل في متناول المطورين الأفراد الذين يمتلكون وحدات GPU استهلاكية.
تحسين NVIDIA
أصدرت NVIDIA إصدارات محسنة من Gemma 4 لوحدات GPU من فئة RTX، مما يوفر:
- استدلال أسرع من خلال تحسينات kernel الخاصة بـ GPU
- استخدام أفضل للذاكرة في بطاقات RTX 4000 و 5000
- تكامل TensorRT للنشر في بيئات الإنتاج
- دعم CUDA graph لتقليل الأعباء الإضافية في الاستدلال المتكرر
ما الذي تغير عن Gemma 3
| الميزة | Gemma 3 | Gemma 4 |
|---|---|---|
| الترخيص | ترخيص Gemma (مقيد) | Apache 2.0 (غير مقيد) |
| أحجام النماذج | 3 أحجام | 4 أحجام (إضافة MoE) |
| نافذة السياق | تصل إلى 128K | تصل إلى 256K |
| الوسائط | نص، صور | نص، صور، فيديو، صوت |
| وضع التفكير | لا | نعم (قابل للتكوين) |
| استخدام الأدوات | محدود | استخدام أدوات منظم |
| اللغات | 30+ | 35+ (مدرب مسبقًا على 140+) |
| BigBench Extra Hard | 19% | 74% |
تحسن كل بُعد. التغييرات الأكثر تأثيرًا للمطورين هي ترخيص Apache 2.0 (يزيل العوائق القانونية)، ووضع التفكير (يحسن الجودة في المهام الصعبة)، وهندسة MoE (توفر جودة رائدة بجزء بسيط من تكلفة الحوسبة).
حالات الاستخدام العملي
البرمجة والتطوير
إن استخدام الأدوات المنظم في Gemma 4 ووضع التفكير يجعلانه فعالاً لـ:
- إكمال الكود وتوليده محليًا
- مراجعة الكود واكتشاف الأخطاء
- توليد الاختبارات الآلية
- كتابة التوثيق
- سير عمل البرمجة الوكيل في Android Studio
معالجة المستندات
مع نوافذ سياق 256K ودعم متعدد الوسائط:
- معالجة قواعد الكود بالكامل أو المستندات الطويلة في مطالبة واحدة
- استخراج المعلومات من صور المستندات والإيصالات والنماذج
- تحليل المخططات وتصورات البيانات
- تلخيص الأوراق البحثية الطويلة أو المستندات القانونية
بناء تطبيقات مدعومة بالذكاء الاصطناعي
بالنسبة للمطورين الذين يبنون منتجات تتضمن قدرات الذكاء الاصطناعي، يوفر Gemma 4 طبقة استدلال قوية على الجهاز أو مستضافة ذاتيًا. يتولى النموذج الذكاء — فهم الاستفسارات، توليد الاستجابات، معالجة الصور — بينما يتولى إطار عمل تطبيقك الباقي. يمكن لأدوات مثل ZBuild تسريع بناء هيكل التطبيق (الواجهة الأمامية، الخلفية، قاعدة البيانات، النشر)، مما يتيح لك تركيز جهد التطوير على طبقة تكامل الذكاء الاصطناعي حيث تبرز قدرات Gemma 4.
النشر في الحافة والأجهزة المحمولة
تفتح نماذج E2B و E4B حالات استخدام كانت مستحيلة سابقًا مع النماذج المفتوحة:
- المساعدون على الجهاز الذين يعملون بدون اتصال بالإنترنت
- ميزات الذكاء الاصطناعي التي تحافظ على الخصوصية ولا ترسل البيانات أبدًا إلى خوادم خارجية
- معالجة الفيديو والصوت في الوقت الفعلي على الأجهزة المحمولة
- الذكاء الاصطناعي المدمج في تطبيقات IoT والروبوتات
كيف تبدأ
Ollama (المسار الأسرع)
# Install Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Pull and run Gemma 4
ollama run gemma4:e2b # Smallest, runs anywhere
ollama run gemma4:e4b # Small, broader capability
ollama run gemma4:26b-moe # MoE, best efficiency
ollama run gemma4:31b # Dense, highest quality
Hugging Face
تتوفر جميع نماذج Gemma 4 على Hugging Face مع تكامل كامل لـ transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("google/gemma-4-31b")
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-31b")
Google AI Studio
توفر Google وصولاً مجانيًا لـ API لنموذج Gemma 4 من خلال AI Studio للتجريب والنماذج الأولية، مع توفر Vertex AI لنشر بيئات الإنتاج.
Gemma 4 في المشهد التنافسي
لفهم مكانة Gemma 4 في النظام البيئي الأوسع:
| النموذج | المعلمات | الترخيص | MMLU Pro | Arena AI | السياق |
|---|---|---|---|---|---|
| Gemma 4 31B | 31B | Apache 2.0 | 85.2% | 1452 | 256K |
| Gemma 4 26B MoE | 26B (3.8B active) | Apache 2.0 | — | 1441 | 256K |
| Llama 4 Maverick | 400B (~17B active) | Meta License | 79.6% | 1417 | 1M |
| Llama 4 Scout | 109B (~17B active) | Meta License | — | ~1400 | 10M |
| Qwen 3.5 72B | 72B | Apache 2.0 | 81.4% | 1438 | 128K |
| Qwen 3.5 MoE | 397B (~22B active) | Apache 2.0 | 83.1% | 1449 | 128K |
يحقق Gemma 4 31B أعلى درجة MMLU Pro وتصنيف Arena AI بين النماذج المفتوحة — مع أقل عدد من المعلمات الكلية. كفاءة المعلمات هذه هي نتيجة مباشرة للأساس التكنولوجي لـ Gemini 3 ووضع التفكير القابل للتكوين.
قصة كفاءة نموذج 26B MoE أكثر إقناعًا. فهو يحتل المرتبة 6 في Arena AI بينما ينشط 3.8B parameters فقط لكل token. لا يحقق أي نموذج آخر نسبة جودة إلى حوسبة مماثلة. بالنسبة لعمليات نشر الإنتاج حيث يتوسع تكلف الاستدلال مع الاستخدام، تترجم هذه الكفاءة مباشرة إلى توفير في التكاليف.
مقارنة بالنماذج المملوكة (proprietary)، فإن مقاييس أداء Gemma 4 31B تنافس عروض الفئة المتوسطة من Anthropic و OpenAI. بينما لا تزال النماذج المملوكة الأعلى تتصدر في المهام الأكثر صعوبة، فقد تلاشت الفجوة بشكل كبير — ويأتي Gemma 4 بتكلفة صفرية لكل token وحرية كاملة بموجب Apache 2.0.
الحكم النهائي
يضع Gemma 4 معيارًا جديدًا للنماذج مفتوحة الأوزان في 2026. إن الجمع بين ترخيص Apache 2.0، وأربعة أحجام نماذج متمايزة جيدًا، والدعم الأصلي متعدد الوسائط، ووضع التفكير القابل للتكوين، ودرجات مقاييس الأداء التنافسية مع نماذج أكبر بكثير، يجعلها عائلة النماذج المفتوحة الأكثر عملية المتاحة.
يعد 31B Dense هو الخيار الصحيح عندما تحتاج إلى أقصى جودة. ويعد 26B MoE هو الخيار الصحيح عندما تحتاج إلى جودة قوية بحد أدنى من تكلفة الحوسبة. أما E2B و E4B فهما الخياران الصحيحان للنشر في الحافة والذكاء الاصطناعي على الأجهزة. ولأول مرة في عائلة Gemma، لا يقيد الترخيص أيًا من حالات الاستخدام هذه.
المصادر
- Introducing Gemma 4 - Google Blog
- Gemma 4 Technical Report - Google DeepMind
- Gemma 4 on Hugging Face
- Gemma 4 Ollama Models
- NVIDIA Gemma 4 RTX Optimization
- Gemma 4 Arena AI Rankings
- Gemma 4 Android Studio Integration
- Apache 2.0 License
- Gemma 4 Benchmark Analysis - Artificial Analysis
- Gemma 4 Overview - Google AI for Developers