← Back to news
ZBuild News

Google Gemma 4: دليل شامل للمواصفات، الاختبارات القياسية، وكل ما هو جديد (2026)

كل ما تحتاج معرفته عن Google Gemma 4 — أول إصدار Gemma بترخيص Apache 2.0. يغطي جميع أحجام النماذج الأربعة (E2B، E4B، 26B MoE، 31B Dense)، القدرات متعددة الوسائط، وضع التفكير القابل للتكوين، سياق 256K، بنتيجة 85.2% في MMLU Pro، ومتطلبات الأجهزة للنشر المحلي.

Published
2026-04-03T00:00:00.000Z
Author
ZBuild Team
Reading Time
13 min read
gemma 4google gemma 4gemma 4 releasegemma 4 benchmarksgemma 4 specsgemma 4 open source
Google Gemma 4: دليل شامل للمواصفات، الاختبارات القياسية، وكل ما هو جديد (2026)
ZBuild Teamar
XLinkedIn

الخلاصة الأساسية

يُعد Google Gemma 4 أقوى عائلة نماذج مفتوحة الأوزان تم إصدارها على الإطلاق بموجب ترخيص مرن حقًا. يسجل نموذج 31B Dense نسبة 85.2% في MMLU Pro ويحتل المرتبة 3 بين جميع النماذج المفتوحة في Arena AI — بينما يحقق 26B MoE جودة متطابقة تقريبًا مع 3.8B فقط من الـ active parameters. لأول مرة، يتم شحن Gemma بموجب Apache 2.0، مما يزيل كل عوائق الترخيص التي أعاقت الاعتماد التجاري للأجيال السابقة.


Google Gemma 4: كل ما تحتاج إلى معرفته

نظرة عامة على الإصدار

أصدرت Google DeepMind نموذج Gemma 4 في April 2, 2026، مقدمة أربعة أحجام من النماذج المبنية على نفس الأساس التكنولوجي لـ Gemini 3. يمثل هذا الجيل أكبر قفزة في عائلة Gemma عبر كل الأبعاد: جودة النموذج، القدرات متعددة الوسائط، طول السياق، وشروط الترخيص.

التغييرات الرئيسية عن Gemma 3:

  • ترخيص Apache 2.0 — لا توجد قيود على الاستخدام، ولا يوجد ترخيص مخصص، وحرية تجارية كاملة
  • أربعة أحجام للنماذج بدلاً من ثلاثة، بما في ذلك هندسة MoE جديدة
  • دعم أصلي متعدد الوسائط عبر جميع الأحجام (النصوص، الصور، الفيديو، الصوت)
  • وضع تفكير قابل للتكوين مع سلاسل استدلال تزيد عن 4,000 tokens
  • نوافذ سياق 256K في النماذج الأكبر (زيادة عن حدود Gemma 3)
  • أكثر من 35 لغة مدعومة، مع تدريب مسبق على أكثر من 140 لغة
  • استخدام الأدوات المنظم لسير العمل الوكيل (agentic)

أحجام النماذج الأربعة

يأتي Gemma 4 في أربعة أحجام متميزة، يستهدف كل منها سيناريوهات نشر مختلفة:

النموذجالمعلماتالمعلمات النشطةالهندسة المعماريةالسياقالوسائط
E2B2.3B effective2.3BDense128KText, Image, Video, Audio
E4B4.5B effective4.5BDense128KText, Image, Video, Audio
26B MoE26B total3.8BMixture of Experts256KText, Image
31B Dense31B31BDense256KText, Image

المصدر: Google AI Blog

E2B و E4B: نماذج الحافة (Edge Models)

تم تصميم أصغر نماذج Gemma 4 للنشر على الأجهزة. مع 2.3B و 4.5B من الـ effective parameters على التوالي، يمكن تشغيلها على الهواتف الذكية والأجهزة اللوحية وأجهزة الكمبيوتر المحمولة بذاكرة RAM منخفضة تصل إلى 5GB باستخدام 4-bit quantization.

ما يجعل هذه النماذج رائعة هو اتساع نطاق وسائطها. على الرغم من كونها الأصغر في العائلة، إلا أن E2B و E4B هما نموذجا Gemma 4 الوحيدان اللذان يدعمان جميع وسائط الإدخال الأربعة: النصوص، الصور، الفيديو، والصوت. هذا خيار تصميمي متعمد — حيث تستفيد أجهزة الحافة المزودة بكاميرات وميكروفونات بشكل أكبر من القدرات متعددة الوسائط.

يدعم كلا النموذجين نوافذ سياق تبلغ 128K tokens، وهو أمر سخي بالنسبة لعدد معلماتها وكافٍ لمعظم حالات الاستخدام على الأجهزة.

26B MoE: الكفاءة القصوى

يُعد نموذج 26B Mixture of Experts هو النموذج الأكثر إثارة للاهتمام في تشكيلة Gemma 4. فهو يحتوي على 26B total parameters ولكنه ينشط فقط 3.8B parameters لأي إدخال معين — وهو ما يقرب من نفس تكلفة الحوسبة لنموذج E4B ولكن مع إمكانية الوصول إلى معرفة وقدرات أكبر بكثير.

في Arena AI، يحتل 26B MoE المرتبة 6 بين جميع النماذج المفتوحة بنتيجة 1441، على الرغم من استخدامه لـ 3.8B فقط من الـ active parameters. نسبة الكفاءة هذه غير مسبوقة — فلا يوجد نموذج آخر يحقق جودة مماثلة بتكلفة الحوسبة هذه.

تقوم هندسة MoE بتوجيه كل token عبر شبكات فرعية متخصصة (experts)، مما يسمح للنموذج بالحفاظ على قدرة معرفية كبيرة مع الحفاظ على انخفاض تكلفة الاستدلال (inference). بالنسبة لسيناريوهات النشر التي تحتاج فيها إلى استدلال قوي ولكن لديك ذاكرة GPU محدودة، فإن 26B MoE هو الخيار الأمثل.

31B Dense: الجودة القصوى

نموذج 31B Dense هو الرائد في Gemma 4. كل معلمة نشطة لكل token، مما يمنحه المخرجات الأكثر اتساقًا والأعلى جودة عبر جميع أنواع المهام.

في Arena AI، يحتل 31B Dense المرتبة 3 بين جميع النماذج المفتوحة بنتيجة 1452. وفي MMLU Pro، يحقق 85.2% — وهي نتيجة تنافسية مع نماذج أكبر منه بعدة مرات. وتظهر نتيجة 89.2% في AIME 2026 استدلالاً رياضيًا قويًا، بينما تظهر نتيجة 74% في BigBench Extra Hard (ارتفاعًا من 19% في الأجيال السابقة) تحسنًا هائلاً في مهام الاستدلال المعقدة.


مقاييس الأداء: البيانات الكاملة

الاستدلال والمعرفة

المقياس31B Dense26B MoEملاحظات
MMLU Pro85.2%معرفة بمستوى الدراسات العليا
AIME 202689.2%رياضيات المسابقات
BigBench Extra Hard74%ارتفاعًا من 19% في الجيل السابق
Arena AI Score1452 (3rd)1441 (6th)تصنيفات النماذج المفتوحة

المصدر: تقرير Google DeepMind الفني

BigBench Extra Hard: النتيجة الأبرز

تستحق القفزة من 19% إلى 74% في BigBench Extra Hard اهتمامًا خاصًا. يختبر هذا المقياس الاستدلال المعقد متعدد الخطوات، والاستنتاج المنطقي، والمهام التي تتطلب فهمًا حقيقيًا بدلاً من مجرد مطابقة الأنماط. يشير التحسن بمقدار 55 نقطة مئوية في جيل واحد إلى تقدم أساسي في بنية الاستدلال في Gemma 4، وليس مجرد زيادة في الحجم.

من المرجح أن هذا التحسن مرتبط بوضع التفكير القابل للتكوين وتكنولوجيا Gemini 3 الأساسية التي بُني عليها Gemma 4. يولد وضع التفكير سلاسل استدلال ممتدة تساعد النموذج على العمل من خلال المشكلات المعقدة خطوة بخطوة.

سياق تصنيفات Arena AI

تصنف Arena AI النماذج بناءً على مقارنات تفضيل بشرية مباشرة. وضع 31B Dense بنتيجة 1452 واحتلاله المرتبة 3 بين النماذج المفتوحة يجعله فوق العديد من النماذج التي تحتوي على عدد أكبر بكثير من المعلمات. للسياق:

  • النماذج التي تحتل مرتبة أعلى منه هي عادة نماذج تحتوي على 70B+ parameters
  • تحقيق 26B MoE لنتيجة 1441 مع 3.8B فقط من الـ active parameters يعد اختراقًا في الكفاءة
  • يتفوق كلا النموذجين على Gemma 3 27B السابق بفارق كبير

القدرات متعددة الوسائط

فهم الصور

تعالج جميع نماذج Gemma 4 الأربعة الصور بشكل أصلي. وتشمل القدرات ما يلي:

  • وصف الصور وتحليلها — فهم مفصل للمحتوى البصري
  • OCR ومعالجة المستندات — استخراج النص من الصور، الإيصالات، ولقطات الشاشة
  • تفسير المخططات والرسوم البيانية — فهم تصورات البيانات
  • الاستدلال البصري — الإجابة على الأسئلة التي تتطلب فهم العلاقات المكانية

الفيديو والصوت (E2B/E4B فقط)

تضيف النماذج الأصغر E2B و E4B معالجة أصلية للفيديو والصوت:

  • فهم الفيديو — تحليل محتوى الفيديو دون الحاجة لاستخراج الإطارات إطارًا بإطار
  • نسخ الصوت وفهمه — معالجة الكلام والأصوات البيئية
  • الاستدلال عبر الوسائط — الإجابة على الأسئلة التي تمتد عبر مدخلات النص، الصور، الفيديو، والصوت

يعكس خيار التصميم هذا تركيز Google على النشر في الحافة. تلتقط الأجهزة المحمولة الفيديو والصوت بشكل أصلي، لذا فإن النماذج المصممة لتلك الأجهزة تدعم هذه الوسائط.


وضع التفكير القابل للتكوين

يقدم Gemma 4 وضع تفكير قابل للتكوين يولد أكثر من 4,000 tokens من الاستدلال الداخلي قبل إنتاج الاستجابة. هذا يشابه قدرات التفكير الممتد الموجودة في نماذج Claude وسلسلة o من OpenAI، ولكن تم تنفيذه في نموذج مفتوح الأوزان.

كيف يعمل

عند تمكين وضع التفكير، يقوم النموذج بـ:

  1. استقبال مطالبة الإدخال (prompt)
  2. توليد سلسلة استدلال داخلية (مرئية أو مخفية، حسب التكوين)
  3. استخدام سلسلة الاستدلال لإنتاج استجابة نهائية أعلى جودة

يمكن تبديل وضع التفكير لكل طلب، مما يسمح للمطورين بـ:

  • تمكين التفكير لمهام الرياضيات المعقدة، المنطق، البرمجة، والتحليل
  • تعطيل التفكير للاستفسارات البسيطة، الدردشة، والتطبيقات الحساسة للتأخير (latency)
  • تعديل عمق التفكير بناءً على التعقيد المتوقع للمهمة

التأثير على الجودة

يعد وضع التفكير محركًا أساسيًا وراء أداء Gemma 4 القوي في مقاييس الأداء. تم تحقيق نتيجة AIME 2026 البالغة 89.2% ونتيجة BigBench Extra Hard البالغة 74% مع تمكين وضع التفكير. بدون وضع التفكير، ستكون هذه النتائج أقل بشكل ملحوظ — على غرار النمط المشاهد في النماذج الأخرى ذات قدرات الاستدلال الممتد.


Apache 2.0: لماذا يهم تغيير الترخيص

تم شحن أجيال Gemma السابقة بموجب ترخيص Gemma المخصص من Google، والذي تضمن قيودًا على:

  • الاستخدام في تطبيقات معينة
  • شروط إعادة التوزيع
  • قيود النشر التجاري للاستخدام على نطاق واسع

ينتقل Gemma 4 إلى Apache 2.0، وهو نفس الترخيص المستخدم في مشاريع مثل Kubernetes و TensorFlow و Apache HTTP Server. وهذا يعني:

  • لا توجد قيود على الاستخدام — استخدمه لأي شيء، بما في ذلك المنتجات التجارية
  • لا توجد قيود على إعادة التوزيع — شارك الأوزان المعدلة بحرية
  • لا توجد متطلبات عزو بخلاف الترخيص — إشعار Apache 2.0 القياسي
  • لا حاجة لموافقة Google — انشر بأي نطاق دون إذن
  • متوافق مع التراخيص مفتوحة المصدر الأخرى — من السهل دمجه في المشاريع الحالية

بالنسبة للمؤسسات والشركات الناشئة التي تبني منتجات فوق النماذج المفتوحة، فإن هذا يزيل عبء المراجعة القانونية الذي كان يتطلبه ترخيص Gemma المخصص. كما يجعل Gemma 4 قابلاً للمقارنة مباشرة مع نماذج Llama من Meta (التي تستخدم ترخيصها المخصص مع بعض القيود) ويضعه كأكثر عائلة نماذج مفتوحة عالية الجودة مرونة في الترخيص متاحة حاليًا.


دعم اللغات

يدعم Gemma 4 أكثر من 35 لغة للاستدلال وتم تدريبه مسبقًا على أكثر من 140 لغة. وهذا يجعله واحدًا من أكثر النماذج المفتوحة دعمًا للغات المتعددة، إلى جانب نماذج Qwen التي تؤكد أيضًا على التغطية اللغوية الواسعة.

تشمل اللغات المدعومة لغات العالم الرئيسية (الإنجليزية، الصينية، الإسبانية، الفرنسية، الألمانية، اليابانية، الكورية، العربية، الهندية، البرتغالية، الروسية) بالإضافة إلى العديد من اللغات ذات الحضور الرقمي الأصغر. التدريب المسبق على أكثر من 140 لغة يعني أن النموذج لديه بعض القدرة في لغات تتجاوز الـ 35 لغة المدعومة رسميًا، على الرغم من أن الجودة قد تختلف.

بالنسبة للتطبيقات التي تستهدف جماهير عالمية أو أسواقًا غير ناطقة بالإنجليزية، فإن هذا الدعم الواسع للغات يقلل من الحاجة إلى fine-tuning متخصص أو نماذج منفصلة لكل لغة.


استخدام الأدوات المنظم وسير العمل الوكيل (Agentic)

يتضمن Gemma 4 دعمًا أصليًا لاستخدام الأدوات المنظم، مما يتيح سير عمل وكيل حيث يمكن للنموذج:

  • استدعاء واجهات برمجة التطبيقات الخارجية (API) بطلبات منسقة بشكل صحيح
  • تحليل الاستجابات المنظمة من الأدوات والخدمات
  • ربط استدعاءات أدوات متعددة لإكمال المهام المعقدة
  • التعامل مع الأخطاء وإعادة المحاولة في تنفيذ الأدوات

تعد هذه القدرة ذات صلة خاصة بـ تكامل Android Studio، حيث يدعم Gemma 4 سير عمل البرمجة الوكيل المحلي. يمكن للنموذج فهم سياق الكود، واقتراح التغييرات، وتنفيذ الأدوات، والتكرار — وكل ذلك يعمل محليًا على جهاز المطور دون إرسال الكود إلى خوادم خارجية.

بالنسبة للمطورين الذين يبنون وكلاء ذكاء اصطناعي (AI agents)، يوفر استخدام الأدوات المنظم في Gemma 4 أساسًا محليًا وخاصًا بالكامل. وبالاقتران مع ترخيص Apache 2.0، فإن هذا يتيح بناء ونشر تطبيقات وكيلة دون أي اعتماد على مزودي النماذج الخارجيين.


متطلبات الأجهزة

النشر المحلي عبر Ollama

النموذجذاكرة RAM المطلوبة (4-bit)ذاكرة RAM المطلوبة (FP16)توصية GPU
E2B~5 GB~5 GBAny modern GPU / CPU only
E4B~5 GB~9 GBAny modern GPU / CPU only
26B MoE~18 GB~52 GBRTX 4090 / RTX 5090
31B Dense~20 GB~62 GBRTX 4090 / RTX 5090

المصدر: مكتبة نماذج Ollama

تم تصميم نموذجي E2B و E4B خصيصًا للنشر في الحافة. يعملان بشكل مريح على أجهزة الكمبيوتر المحمولة، ووحدات المعالجة المركزية لسطح المكتب، وحتى بعض الهواتف الذكية. تتطلب نماذج 26B MoE و 31B Dense أجهزة GPU مخصصة ولكنها تظل في متناول المطورين الأفراد الذين يمتلكون وحدات GPU استهلاكية.

تحسين NVIDIA

أصدرت NVIDIA إصدارات محسنة من Gemma 4 لوحدات GPU من فئة RTX، مما يوفر:

  • استدلال أسرع من خلال تحسينات kernel الخاصة بـ GPU
  • استخدام أفضل للذاكرة في بطاقات RTX 4000 و 5000
  • تكامل TensorRT للنشر في بيئات الإنتاج
  • دعم CUDA graph لتقليل الأعباء الإضافية في الاستدلال المتكرر

المصدر: NVIDIA AI Blog


ما الذي تغير عن Gemma 3

الميزةGemma 3Gemma 4
الترخيصترخيص Gemma (مقيد)Apache 2.0 (غير مقيد)
أحجام النماذج3 أحجام4 أحجام (إضافة MoE)
نافذة السياقتصل إلى 128Kتصل إلى 256K
الوسائطنص، صورنص، صور، فيديو، صوت
وضع التفكيرلانعم (قابل للتكوين)
استخدام الأدواتمحدوداستخدام أدوات منظم
اللغات30+35+ (مدرب مسبقًا على 140+)
BigBench Extra Hard19%74%

تحسن كل بُعد. التغييرات الأكثر تأثيرًا للمطورين هي ترخيص Apache 2.0 (يزيل العوائق القانونية)، ووضع التفكير (يحسن الجودة في المهام الصعبة)، وهندسة MoE (توفر جودة رائدة بجزء بسيط من تكلفة الحوسبة).


حالات الاستخدام العملي

البرمجة والتطوير

إن استخدام الأدوات المنظم في Gemma 4 ووضع التفكير يجعلانه فعالاً لـ:

  • إكمال الكود وتوليده محليًا
  • مراجعة الكود واكتشاف الأخطاء
  • توليد الاختبارات الآلية
  • كتابة التوثيق
  • سير عمل البرمجة الوكيل في Android Studio

معالجة المستندات

مع نوافذ سياق 256K ودعم متعدد الوسائط:

  • معالجة قواعد الكود بالكامل أو المستندات الطويلة في مطالبة واحدة
  • استخراج المعلومات من صور المستندات والإيصالات والنماذج
  • تحليل المخططات وتصورات البيانات
  • تلخيص الأوراق البحثية الطويلة أو المستندات القانونية

بناء تطبيقات مدعومة بالذكاء الاصطناعي

بالنسبة للمطورين الذين يبنون منتجات تتضمن قدرات الذكاء الاصطناعي، يوفر Gemma 4 طبقة استدلال قوية على الجهاز أو مستضافة ذاتيًا. يتولى النموذج الذكاء — فهم الاستفسارات، توليد الاستجابات، معالجة الصور — بينما يتولى إطار عمل تطبيقك الباقي. يمكن لأدوات مثل ZBuild تسريع بناء هيكل التطبيق (الواجهة الأمامية، الخلفية، قاعدة البيانات، النشر)، مما يتيح لك تركيز جهد التطوير على طبقة تكامل الذكاء الاصطناعي حيث تبرز قدرات Gemma 4.

النشر في الحافة والأجهزة المحمولة

تفتح نماذج E2B و E4B حالات استخدام كانت مستحيلة سابقًا مع النماذج المفتوحة:

  • المساعدون على الجهاز الذين يعملون بدون اتصال بالإنترنت
  • ميزات الذكاء الاصطناعي التي تحافظ على الخصوصية ولا ترسل البيانات أبدًا إلى خوادم خارجية
  • معالجة الفيديو والصوت في الوقت الفعلي على الأجهزة المحمولة
  • الذكاء الاصطناعي المدمج في تطبيقات IoT والروبوتات

كيف تبدأ

Ollama (المسار الأسرع)

# Install Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Pull and run Gemma 4
ollama run gemma4:e2b      # Smallest, runs anywhere
ollama run gemma4:e4b      # Small, broader capability
ollama run gemma4:26b-moe  # MoE, best efficiency
ollama run gemma4:31b      # Dense, highest quality

Hugging Face

تتوفر جميع نماذج Gemma 4 على Hugging Face مع تكامل كامل لـ transformers:

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("google/gemma-4-31b")
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-31b")

Google AI Studio

توفر Google وصولاً مجانيًا لـ API لنموذج Gemma 4 من خلال AI Studio للتجريب والنماذج الأولية، مع توفر Vertex AI لنشر بيئات الإنتاج.


Gemma 4 في المشهد التنافسي

لفهم مكانة Gemma 4 في النظام البيئي الأوسع:

النموذجالمعلماتالترخيصMMLU ProArena AIالسياق
Gemma 4 31B31BApache 2.085.2%1452256K
Gemma 4 26B MoE26B (3.8B active)Apache 2.01441256K
Llama 4 Maverick400B (~17B active)Meta License79.6%14171M
Llama 4 Scout109B (~17B active)Meta License~140010M
Qwen 3.5 72B72BApache 2.081.4%1438128K
Qwen 3.5 MoE397B (~22B active)Apache 2.083.1%1449128K

يحقق Gemma 4 31B أعلى درجة MMLU Pro وتصنيف Arena AI بين النماذج المفتوحة — مع أقل عدد من المعلمات الكلية. كفاءة المعلمات هذه هي نتيجة مباشرة للأساس التكنولوجي لـ Gemini 3 ووضع التفكير القابل للتكوين.

قصة كفاءة نموذج 26B MoE أكثر إقناعًا. فهو يحتل المرتبة 6 في Arena AI بينما ينشط 3.8B parameters فقط لكل token. لا يحقق أي نموذج آخر نسبة جودة إلى حوسبة مماثلة. بالنسبة لعمليات نشر الإنتاج حيث يتوسع تكلف الاستدلال مع الاستخدام، تترجم هذه الكفاءة مباشرة إلى توفير في التكاليف.

مقارنة بالنماذج المملوكة (proprietary)، فإن مقاييس أداء Gemma 4 31B تنافس عروض الفئة المتوسطة من Anthropic و OpenAI. بينما لا تزال النماذج المملوكة الأعلى تتصدر في المهام الأكثر صعوبة، فقد تلاشت الفجوة بشكل كبير — ويأتي Gemma 4 بتكلفة صفرية لكل token وحرية كاملة بموجب Apache 2.0.


الحكم النهائي

يضع Gemma 4 معيارًا جديدًا للنماذج مفتوحة الأوزان في 2026. إن الجمع بين ترخيص Apache 2.0، وأربعة أحجام نماذج متمايزة جيدًا، والدعم الأصلي متعدد الوسائط، ووضع التفكير القابل للتكوين، ودرجات مقاييس الأداء التنافسية مع نماذج أكبر بكثير، يجعلها عائلة النماذج المفتوحة الأكثر عملية المتاحة.

يعد 31B Dense هو الخيار الصحيح عندما تحتاج إلى أقصى جودة. ويعد 26B MoE هو الخيار الصحيح عندما تحتاج إلى جودة قوية بحد أدنى من تكلفة الحوسبة. أما E2B و E4B فهما الخياران الصحيحان للنشر في الحافة والذكاء الاصطناعي على الأجهزة. ولأول مرة في عائلة Gemma، لا يقيد الترخيص أيًا من حالات الاستخدام هذه.


المصادر

Back to all news
Enjoyed this article?
FAQ

Common questions

ما هو Google Gemma 4 ومتى تم إصداره؟+
Google Gemma 4 هي عائلة نماذج مفتوحة الأوزان من Google DeepMind تم إصدارها في 2 أبريل 2026. تتضمن 4 أحجام — E2B (2.3B فعال)، E4B (4.5B فعال)، 26B MoE (3.8B نشط / 26B إجمالي)، و31B Dense. تم إصدار جميع النماذج بموجب ترخيص Apache 2.0، وهو الترخيص الأكثر تسامحاً المستخدم على الإطلاق لإصدارات Gemma.
هل Gemma 4 مفتوح المصدر حقاً؟+
نعم. Gemma 4 هو أول جيل من Gemma يتم إصداره بموجب ترخيص Apache 2.0، والذي يسمح بالاستخدام التجاري غير المقيد، والتعديل، وإعادة التوزيع دون طلب إذن من Google. استخدمت نماذج Gemma السابقة ترخيص Gemma المخصص من Google والذي فرض قيوداً على الاستخدام.
ما هي نافذة السياق التي يدعمها Gemma 4؟+
تدعم النماذج الأصغر (E2B وE4B) نوافذ سياق تبلغ 128K token. بينما تدعم النماذج الأكبر (26B MoE و31B Dense) نوافذ سياق تبلغ 256K token. يعد هذا تحسناً كبيراً مقارنة بحدود السياق في Gemma 3، مما يتيح معالجة قواعد الأكواد الكاملة أو المستندات الطويلة في مطالبة واحدة.
هل يستطيع Gemma 4 معالجة الصور والفيديو والصوت؟+
نعم. جميع نماذج Gemma 4 الأربعة متعددة الوسائط بشكل أصلي وتدعم مدخلات النصوص والصور. تذهب نماذج E2B وE4B إلى أبعد من ذلك مع قدرات معالجة الفيديو والصوت الأصلية. وهذا يجعل Gemma 4 أول عائلة نماذج مفتوحة الأوزان تتمتع فيها النماذج الأصغر بأوسع دعم للوسائط.
كيف يعمل وضع التفكير في Gemma 4؟+
يتضمن Gemma 4 وضع تفكير قابل للتكوين يولد أكثر من 4,000+ tokens من الاستدلال الداخلي قبل إنتاج الاستجابة. يمكن تشغيل استدلال chain-of-thought أو إيقاف تشغيله لكل طلب، مما يتيح للمطورين الاختيار بين الاستجابات الأسرع للمهام البسيطة والاستدلال الأعمق للمشكلات المعقدة مثل الرياضيات والمنطق والبرمجة.
ما هي الأجهزة التي أحتاجها لتشغيل Gemma 4 محلياً؟+
يعمل Gemma 4 E2B وE4B على أجهزة بذاكرة وصول عشوائي RAM منخفضة تصل إلى 5GB باستخدام 4-bit quantization، بما في ذلك الهواتف الذكية وأجهزة الكمبيوتر المحمولة. يتطلب نموذج 26B MoE حوالي 18GB RAM ويتطلب 31B Dense حوالي 20GB RAM. تعمل جميع النماذج عبر Ollama مع توفر تحسينات NVIDIA RTX GPU.

ابنِ مع ZBuild

حوّل فكرتك إلى تطبيق يعمل — بدون برمجة.

أكثر من 46,000 مطور بنوا مع ZBuild هذا الشهر

جرّبه بنفسك

صف ما تريد — ZBuild يبنيه لك.

أكثر من 46,000 مطور بنوا مع ZBuild هذا الشهر
More Reading

Related articles

دليل Claude Sonnet 4.6 الكامل: Benchmarks، والتسعير، والميزات، ومتى يجب استخدامه (2026)
2026-03-27T00:00:00.000Z

دليل Claude Sonnet 4.6 الكامل: Benchmarks، والتسعير، والميزات، ومتى يجب استخدامه (2026)

الدليل الشامل لـ Claude Sonnet 4.6 — نموذج الفئة المتوسطة من Anthropic الذي تم إصداره في 17 فبراير 2026. يغطي جميع الـ benchmarks (SWE-bench 79.6%، OSWorld 72.5%، ARC-AGI-2 58.3%)، وتسعير API (3 دولار/15 دولار لكل مليون tokens)، وميزة extended thinking، و 1M context window، ومقارنات تفصيلية مع Opus 4.6 و GPT-5.4.

إطلاق DeepSeek V4: المواصفات، Benchmarks وكل ما نعرفه عن النموذج مفتوح المصدر 1T (2026)
2026-03-27T00:00:00.000Z

إطلاق DeepSeek V4: المواصفات، Benchmarks وكل ما نعرفه عن النموذج مفتوح المصدر 1T (2026)

دليل كامل لـ DeepSeek V4 — النموذج مفتوح المصدر بسعة 1 تريليون Parameter مع ذاكرة Engram، وسياق مليون-token، و81% في SWE-Bench. نغطي Architecture، وBenchmarks، والتسعير، والجدول الزمني للإصدار، وكيفية مقارنته بـ GPT-5.4 و Claude Opus 4.6.

دليل Grok 5 الشامل: تاريخ الإصدار، 6T Parameters، Colossus 2 وطموحات xAI في AGI (2026)
2026-03-27T00:00:00.000Z

دليل Grok 5 الشامل: تاريخ الإصدار، 6T Parameters، Colossus 2 وطموحات xAI في AGI (2026)

كل ما هو معروف عن Grok 5 اعتباراً من مارس 2026 — نموذج الـ 6 trillion parameter الذي يتم تدريبه على Colossus 2 supercluster التابع لـ xAI. نغطي تاريخ الإصدار المتأخر، المواصفات التقنية، ادعاء Elon Musk بنسبة 10% للوصول إلى AGI، توقعات benchmarks، وما يعنيه ذلك لصناعة AI.

Harness Engineering: الدليل الكامل لبناء أنظمة لـ AI Agents و Codex في 2026
2026-03-27T00:00:00.000Z

Harness Engineering: الدليل الكامل لبناء أنظمة لـ AI Agents و Codex في 2026

تعلم Harness Engineering — التخصص الجديد لتصميم الأنظمة التي تجعل AI coding agents تعمل فعلياً على نطاق واسع. يغطي تجربة Codex من OpenAI التي تبلغ مليون سطر، و Golden principles، و Dependency layers، و Repository-first architecture، و Garbage collection، والتطبيق العملي لفريقك.