← Back to news
ZBuild News

إطلاق DeepSeek V4: المواصفات، Benchmarks وكل ما نعرفه عن النموذج مفتوح المصدر 1T (2026)

دليل كامل لـ DeepSeek V4 — النموذج مفتوح المصدر بسعة 1 تريليون Parameter مع ذاكرة Engram، وسياق مليون-token، و81% في SWE-Bench. نغطي Architecture، وBenchmarks، والتسعير، والجدول الزمني للإصدار، وكيفية مقارنته بـ GPT-5.4 و Claude Opus 4.6.

Published
2026-03-27T00:00:00.000Z
Author
ZBuild Team
Reading Time
13 min read
deepseek v4deepseek v4 releasedeepseek v4 benchmarksdeepseek v4 specsdeepseek v4 architecturedeepseek engram
إطلاق DeepSeek V4: المواصفات، Benchmarks وكل ما نعرفه عن النموذج مفتوح المصدر 1T (2026)
ZBuild Teamar
XLinkedIn

النقاط الرئيسية

  • 1 تريليون parameter، و 37B نشط: يستخدم DeepSeek V4 بنية Mixture-of-Experts التي تنشط فقط ~37B parameter لكل token — مما يحافظ على تكاليف inference قابلة للمقارنة مع V3 على الرغم من زيادة إجمالي الـ parameters بنسبة 50%.
  • 81% SWE-Bench Verified: يحصد V4 تاج معايير البرمجة — متفوقاً على الرقم القياسي السابق لـ Claude Opus 4.5 البالغ 80.9%.
  • ذاكرة Engram هي الاختراق المعماري: نظام ذاكرة شرطي جديد يوفر O(1) knowledge lookup، محققاً دقة 97% في اختبار Needle-in-a-Haystack على مقياس مليون token.
  • أرخص بـ 10x من المنافسين الغربيين: بسعر 0.30$/M input tokens، يتفوق V4 على GPT-5.4 (2.50$) و Claude (3-15$) بفارق كبير جداً.
  • مفتوح المصدر تحت رخصة Apache 2.0: أوزان النموذج الكاملة متاحة للنشر المحلي، و Fine-tuning، والاستخدام التجاري — وهو النموذج الوحيد من فئة frontier-class الذي يتمتع بهذا المستوى من الانفتاح.

DeepSeek V4: النموذج مفتوح المصدر الذي يعيد كتابة اقتصاديات AI

لقد فعلتها DeepSeek مرة أخرى. بعد أن أثبت V3 أن مختبراً صينياً يمكنه بناء نماذج من فئة frontier-class بكسر بسيط من التكاليف الغربية، يرفع V4 المخاطر إلى مستوى يتطلب اهتماماً من كل مطور، وشركة ناشئة، ومؤسسة تتخذ قرارات بشأن بنية AI التحتية.

تريليون parameter. context window بمليون token. Multimodal أصلي. 81% SWE-Bench Verified. وكل ذلك مفتوح المصدر تحت رخصة Apache 2.0 وبتكاليف inference أقل بـ 10-40x من المنافسين الغربيين.

سواء كانت هذه الادعاءات ستصمد تماماً تحت الفحص المستقل، فهذا أمر لا يزال قيد التحديد. لكن الابتكارات المعمارية — وخاصة ذاكرة Engram — تمثل تقدماً حقيقياً سيؤثر على تصميم النماذج في جميع أنحاء الصناعة بغض النظر عن ذلك.

إليك كل ما نعرفه اعتباراً من March 2026.


الجدول الزمني للإصدار

كان طريق DeepSeek V4 نحو الإصدار وعراً، مع فترات تأخير متعددة:

التاريخالحدث
January 2026نشر ورقة Engram البحثية — بنية الذاكرة الشرطية
February 2026 (أوائل)هدف الإصدار الأصلي — تم تفويته
February 2026 (منتصف)نافذة الإصدار الثانية — تم تفويتها أيضاً
أوائل March 2026إطلاق نموذج V4 الكامل
March 9, 2026ظهور "V4 Lite" على موقع DeepSeek الإلكتروني
March 2026 (مستمر)إجراء اختبارات المقارنة المستقلة والتحقق من قبل المجتمع

أدى الجدول الزمني المتأخر فعلياً إلى زيادة التوقعات. وبحلول وقت إطلاق V4، كانت ورقة Engram قد نوقشت بالفعل على نطاق واسع، وكانت التوقعات عالية جداً.


تعمق في البنية المعمارية

Mixture-of-Experts على مقياس التريليون

يواصل DeepSeek V4 بنية MoE التي جعلت V3 فعالاً للغاية، لكن مع توسيعها بشكل كبير:

المقياسDeepSeek V3DeepSeek V4
إجمالي Parameters671B~1T
Parameters النشطة~37B~37B
Context Window128K1M
البنية المعماريةMoEMoE + Engram
Multimodalنص فقطنص + صور + فيديو
الترخيصApache 2.0Apache 2.0

الفكرة الرئيسية: زاد إجمالي الـ parameters بنسبة 50%، لكن الـ parameters النشطة لكل token ظلت ثابتة عند ~37B. وهذا يعني أن V4 لديه وصول إلى معرفة وقدرات أكبر بكثير دون زيادة تكاليف inference بشكل تناسبي.

Engram: ثورة الذاكرة

Engram هو الابتكار الأكثر أهمية من الناحية المعمارية في V4. تم تفصيله في ورقة DeepSeek لشهر January 2026 ("Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models")، وهو يعالج قيداً أساسياً في نماذج Transformers.

المشكلة: تعالج نماذج Transformers التقليدية كل قطعة من المعرفة بنفس الطريقة — من خلال الحساب. سواء كان النموذج بحاجة إلى تذكر أن "باريس هي عاصمة فرنسا" (حقيقة ثابتة) أو التفكير في إعادة صياغة كود معقد (حساب ديناميكي)، فإنه يستخدم نفس آلية attention. وهذا يعد هدراً.

حل Engram: إضافة نظام ذاكرة منفصل للمعرفة الثابتة والحتمية. بدلاً من حساب الإجابة على "ما هي عاصمة فرنسا؟" من خلال طبقات attention متعددة، يوفر Engram O(1) deterministic lookup — وهو في الأساس جدول hash متعلم للمعرفة الواقعية.

النتيجة الرئيسية — قانون تخصيص Sparsity: كشف بحث DeepSeek أنه في ظل ميزانية parameters محدودة، فإن التقسيم الأمثل هو تقريباً 20-25% ذاكرة (Engram) و 75-80% حساب (MoE). هذه النسبة تزيد من دقة الاسترجاع وقدرة التفكير معاً.

تأثير الأداء: يحقق Engram دقة 97% في اختبار Needle-in-a-Haystack على مقياس context window بمليون token، مما يحل مشكلة تدهور الاسترجاع التي تعاني منها بنيات Transformer القياسية. عند 1M tokens، تنخفض دقة الاسترجاع في معظم النماذج إلى أقل من 80%. بينما يحافظ V4 مع Engram على نسبة 97%.

DeepSeek Sparse Attention (DSA)

بالإضافة إلى Engram، يقدم V4 تقنية DeepSeek Sparse Attention — وهي آلية attention تخصص الحساب ديناميكياً بناءً على تعقيد المدخلات. تحصل المقاطع البسيطة على attention خفيف؛ بينما تحصل مقاطع التفكير المعقدة على عمق attention كامل.

هذا ما يجعل context window بمليون token عملياً. بدون DSA، ستكون معالجة 1M tokens مكلفة للغاية حتى مع تكاليف DeepSeek المنخفضة. مع هذه التقنية، تتم معالجة معظم الـ context window بكفاءة، مع الاحتفاظ بكامل قوة الحساب للأجزاء التي تحتاج إليها.

Manifold-Constrained Hyper-Connections

الابتكار المعماري الثالث هو Manifold-Constrained Hyper-Connections — وهي تقنية تعمل على تحسين تدفق التدرج (gradient flow) أثناء التدريب. والنتيجة العملية هي تدريب أكثر استقراراً في مقياس تريليون parameter، مما يفسر جزئياً كيف دربت DeepSeek نموذج V4 بكسر من التكاليف الغربية.


تحليل معايير الأداء (Benchmarks)

الأرقام

المعيارDeepSeek V4Claude Opus 4.5GPT-5.4ملاحظات
SWE-Bench Verified81%80.9%~82%V4 يحطم الرقم القياسي السابق
HumanEval90%~88%~90%توليد الكود البرمجي
Context (NIAH)97% @ 1M95% @ 200K96% @ 1Mميزة Engram
MultimodalأصليN/Aأصلينص + صور + فيديو

تنبيه: التحقق المستقل

من المهم ملاحظة أنه اعتباراً من أواخر March 2026، تأتي العديد من هذه الأرقام من اختبارات داخلية. وحتى تؤكد التقييمات الخارجية من منظمات مثل Artificial Analysis أو LMSYS أو الباحثين المستقلين هذه الادعاءات تماماً، يجب التعامل مع النسب المئوية الدقيقة كأهداف طموحة وليست نهائية.

ومع ذلك، تم تأكيد معايير V3 إلى حد كبير من خلال الاختبارات المستقلة، مما يعطي DeepSeek مصداقية بأن أرقام V4 هذه تقع في النطاق الصحيح.


التسعير: ثورة التكلفة مستمرة

يعد تسعير DeepSeek V4 الميزة الأكثر زعزعة للاستقرار:

النموذجسعر المدخلات (لكل M tokens)سعر المخرجات (لكل M tokens)سعر Cache Hit
DeepSeek V4$0.30$0.50$0.03
GPT-5.4$2.50$15.00N/A
Claude Sonnet 4.6$3.00$15.00$0.30
Claude Opus 4.6$15.00$75.00$1.50

سعر cache hit جذاب بشكل خاص: إذا كانت مطالباتك (prompts) تشترك في بادئة مشتركة (وهو ما يحدث دائماً في التطبيقات الإنتاجية)، فإن input tokens المخزنة مؤقتاً تكلف 0.03$ فقط لكل مليون — بخصم 90%.

ماذا يعني هذا من الناحية العملية

بالنسبة لمنشئ تطبيقات نموذجي يعالج 100M tokens شهرياً:

المزودالتكلفة الشهرية
DeepSeek V4~40-80$
GPT-5.4~500-1,500$
Claude Sonnet 4.6~600-1,800$
Claude Opus 4.6~3,000-9,000$

هذه الميزة في التكلفة التي تتراوح بين 10-40x هي السبب في أهمية DeepSeek لنظام AI البيئي الأوسع. فهي تجعل AI من فئة frontier-class متاحاً للمطورين المستقلين، والشركات الناشئة، وفرق المؤسسات الحساسة للتكاليف.

يمكن لمنصات مثل ZBuild دمج DeepSeek V4 كخيار لنموذج خلفي (backend)، مما ينقل هذه التوفيرات الهائلة في التكاليف مباشرة إلى المستخدمين الذين يبنون تطبيقات مدعومة بـ AI.


Multimodal أصلي: نصوص، صور، وفيديو

على عكس V3 (نص فقط)، V4 هو نموذج Multimodal أصلي. وكما ذكرت صحيفة Financial Times، فإن V4 يدمج توليد النصوص والصور والفيديو أثناء مرحلة pre-training بدلاً من إضافة الرؤية كـ module منفصل.

هذا الأمر مهم لأن:

  1. التفكير عبر الوسائط (Cross-modal reasoning) أكثر تماسكاً — يفهم النموذج العلاقات بين الأوصاف النصية والمحتوى المرئي بشكل طبيعي.
  2. فهم الصور والفيديو — يمكن لـ V4 تحليل لقطات الشاشة، والرسوم البيانية، وإطارات الفيديو جنباً إلى جنب مع النصوص.
  3. قدرات التوليد — تشير التقارير الأولية إلى إمكانية توليد نص-إلى-صورة ونص-إلى-فيديو، على الرغم من أن تقييمات الجودة لا تزال تظهر.

بالنسبة للمطورين الذين يبنون تطبيقات تعالج المحتوى المرئي — تحليل المستندات، تصميم واجهة المستخدم، تلخيص الفيديو — فإن دعم Multimodal الأصلي يلغي الحاجة إلى vision APIs منفصلة.

حالات استخدام Multimodal عملية

يفتح تكامل Multimodal الأصلي عدة مسارات عمل عملية:

  • كود من لقطات الشاشة: قدم لقطة شاشة لتصميم واجهة مستخدم وسيقوم V4 بتوليد الكود المقابل — HTML/CSS، أو مكونات React، أو views لـ SwiftUI.
  • فهم الرسوم البيانية: أدخل رسوماً بيانية للهندسة المعمارية، أو مخططات التدفق، أو مخططات قواعد البيانات وسيشرح V4 التصميم، أو يحدد المشكلات، أو يولد كود التنفيذ.
  • معالجة المستندات: استخراج البيانات المنظمة من المستندات الممسوحة ضوئياً، والفواتير، والنماذج دون الحاجة إلى pipeline منفصل لـ OCR.
  • تلخيص الفيديو: معالجة إطارات الفيديو لتوليد ملخصات، أو نصوص، أو تسليط الضوء على اللحظات الرئيسية.

بالنسبة لمنشئي التطبيقات مثل ZBuild، يعني Multimodal الأصلي أنه يمكن للمستخدمين تحميل النماذج الأولية ولقطات الشاشة مباشرة كجزء من سير عمل إنشاء التطبيق — حيث يفهم AI السياق المرئي دون أدوات إضافية.


تأثير المصدر المفتوح

رخصة Apache 2.0 لنموذج DeepSeek V4 هي بلا شك أكثر أهمية من درجات اختبارات الأداء الخاصة به. إليك ما تتيحه:

الاستضافة الذاتية (Self-Hosting)

يمكن للمؤسسات التي لديها متطلبات سيادة البيانات تشغيل V4 على بنيتها التحتية الخاصة. لا API calls، ولا بيانات تخرج من المبنى، ولا تبعية للموردين. الـ ~37B parameters النشطة لكل token تجعله قابلاً للتشغيل على مجموعات GPU المخصصة للمؤسسات عالية الأداء.

Fine-Tuning

تسمح الأوزان المفتوحة بإجراء Fine-tuning لمجالات محددة — طبية، قانونية، مالية، أو أي تخصص رأسي. وهذا مستحيل مع النماذج المملوكة لشركات مثل OpenAI أو Anthropic.

البحث العلمي

تسمح التفاصيل المعمارية الكاملة ومنهجية التدريب لمجتمع البحث بالبناء على ابتكارات DeepSeek. ذاكرة Engram، و DSA، و Manifold-Constrained Hyper-Connections كلها متاحة للدراسة والتحسين.

التحكم في التكاليف

حتى بعيداً عن أسعار API المنخفضة بالفعل من DeepSeek، فإن الاستضافة الذاتية على نطاق واسع يمكن أن تقلل تكاليف الـ token الواحد بشكل أكبر. بالنسبة للتطبيقات ذات الحجم الكبير التي تعالج مليارات الـ tokens شهرياً، يمكن أن تكون الاستضافة الذاتية لـ V4 أرخص بـ 100x من تسعير API المملوك.


DeepSeek V4 مقابل V3: هل يجب عليك الترقية؟

بالنسبة لمستخدمي DeepSeek V3 الحاليين، إليك حسابات الترقية:

الميزةV3V4تأثير الترقية
Context Window128K1Mمرتفع — يتيح تحليل قواعد الأكواد الضخمة
SWE-Bench69%81%مرتفع — تحسن بـ 12 نقطة
Multimodalنص فقطنص + صور + فيديومتوسط — يعتمد على حالة الاستخدام
ذاكرة Engramلانعممرتفع — استرجاع أفضل بشكل كبير
سعر API0.27$/M input0.30$/M inputمنخفض — زيادة طفيفة في التكلفة
البنية المعماريةMoEMoE + Engram + DSAمرتفع — أفضل بشكل أساسي

الحكم: قم بالترقية. الزيادة في التكلفة ضئيلة، والتحسينات في القدرات — خاصة ذاكرة Engram و context window بمليون token — جوهرية. السبب الوحيد للبقاء على V3 هو إذا كان لديك أعباء عمل إنتاجية تتطلب الاتساق السلوكي الدقيق لنموذجك الحالي.


كيف يتناسب DeepSeek V4 مع نظام المطورين البيئي

للمطورين المستقلين والشركات الناشئة

يجعل تسعير V4 تقنيات AI من فئة frontier-class في متناول ميزانيات الشركات الناشئة. وبالاقتران مع ترخيص Apache 2.0، يمكنك بناء ونشر تطبيقات إنتاجية دون القلق بشأن توسع تكاليف API. تتيح لك أدوات مثل ZBuild التي تدمج العديد من مزودي النماذج الاستفادة من ميزة تكلفة DeepSeek V4 مع الاحتفاظ بخيار توجيه مهام محددة إلى نماذج أخرى عند الحاجة.

لفرق المؤسسات

يعالج خيار الاستضافة الذاتية مخاوف سيادة البيانات والامتثال والتكلفة في آن واحد. تعني قدرة Fine-tuning أنه يمكنك بناء نماذج متخصصة في المجال تتفوق على البدائل العامة في تخصصك المحدد.

للباحثين

تعد البنية المفتوحة منجماً ذهبياً. تفتح ذاكرة Engram وحدها اتجاهات بحثية متعددة — بنيات الذاكرة الشرطية، وتحسين تخصيص sparsity، وأنظمة الاسترجاع والحساب الهجينة.

لصناعة AI

يضغط V4 على كل مزود نماذج رائدة لتبرير تسعيره. عندما يطابق نموذج مفتوح المصدر أو يتجاوز معايير النماذج المملوكة بتكلفة أقل بـ 10x، ينتقل عرض القيمة للنماذج المغلقة من "أداء أفضل" إلى "تكامل ودعم وموثوقية أفضل".


المخاطر والشكوك

التحقق من معايير الأداء (Benchmarks)

يحتاج ادعاء 81% في SWE-Bench إلى تأكيد مستقل. كانت DeepSeek جديرة بالثقة في معايير V3، ولكن من الأصعب تقييم نماذج التريليون parameter باستمرار. انتظر نتائج Artificial Analysis و LMSYS قبل اتخاذ قرارات البنية التحتية بناءً على أرقام دقيقة.

المخاطر الجيوسياسية

DeepSeek هي شركة صينية، والتوترات التكنولوجية بين الولايات المتحدة والصين مستمرة. قد تؤثر ضوابط التصدير، أو قيود الوصول إلى API، أو الضغوط السياسية على التوفر للمطورين الغربيين. الاستضافة الذاتية مع الأوزان المفتوحة تخفف من هذا الخطر ولكنها لا تلغيه.

جودة الـ Multimodal

تعد قدرات Multimodal الجانب الأقل اختباراً في V4. تحتاج جودة فهم الصور والفيديو إلى تحقق واقعي يتجاوز معايير الأداء الداخلية.

الدعم والموثوقية

المصدر المفتوح يعني دعم المجتمع، وليس اتفاقيات مستوى الخدمة (SLAs) الخاصة بالمؤسسات. إذا كان تطبيقك الإنتاجي يعتمد على V4، فأنت مسؤول عن وقت التشغيل (uptime)، والتوسع، واستكشاف الأخطاء وإصلاحها. كانت خدمة API من DeepSeek موثوقة، لكنها لا توفر البنية التحتية لدعم المؤسسات التي توفرها OpenAI أو Anthropic.


الخلاصة

DeepSeek V4 هو أهم نموذج AI مفتوح المصدر تم إصداره في 2026 حتى الآن. إن مزيجه من مقياس تريليون parameter، وابتكار ذاكرة Engram، و context window بمليون token، وقدرات Multimodal الأصلية، والتسعير المنخفض للغاية تحت رخصة Apache 2.0 يجعله بديلاً حقيقياً للنماذج الرائدة المملوكة.

التحذيرات حقيقية — التحقق من المعايير مستمر، والمخاطر الجيوسياسية موجودة، ودعم المؤسسات محدود. ولكن بالنسبة للمطورين والمؤسسات المستعدة للتعامل مع تلك الشكوك، يوفر V4 قدرات من فئة frontier-class بكسر بسيط من التكلفة.

سواء كنت تصل إليه من خلال API الخاص بـ DeepSeek، أو تستضيفه ذاتياً على بنيتك التحتية، أو تستخدمه من خلال منصات مثل ZBuild التي تدمج العديد من مزودي النماذج، فإن DeepSeek V4 يستحق مكاناً في مجموعة أدوات AI الخاصة بك.


الأسئلة الأكثر شيوعاً

هل يمكنني الاستضافة الذاتية لـ DeepSeek V4 على أجهزة المستهلكين؟

ليس بشكل عملي. بينما ينشط النموذج حوالي ~37B parameters فقط لكل token، فإن استضافة نموذج MoE الكامل بـ 1T parameter تتطلب ذاكرة GPU كبيرة لجداول توجيه الخبراء (expert routing tables). ستحتاج إلى مجموعات GPU من فئة المؤسسات (عدة A100s أو H100s). بالنسبة لمعظم المطورين، يعد API الخاص بـ DeepSeek بسعر 0.30$/M input tokens أكثر فعالية من حيث التكلفة بكثير من الاستضافة الذاتية ما لم تكن تعالج مليارات الـ tokens شهرياً.

كيف يختلف V4 Lite عن نموذج V4 الكامل؟

ظهر DeepSeek V4 Lite على موقع DeepSeek الإلكتروني في March 9, 2026، ولكن لم يتم نشر أي مواصفات رسمية. بناءً على أنماط تسمية DeepSeek مع V3، فمن المرجح أن يشير "Lite" إلى نسخة مقطرة أو أصغر محسنة للسرعة والتكلفة على حساب بعض القدرات. توقع أن يكون أسرع وأرخص ولكن مع أداء أقل في مهام التفكير المعقدة.

هل يخضع DeepSeek V4 للرقابة في مواضيع معينة؟

مثل جميع نماذج AI الصينية، يحتوي DeepSeek V4 على تصفية للمحتوى في المواضيع الحساسة سياسياً، وخاصة تلك المتعلقة بالسياسة والحوكمة الصينية. بالنسبة للتطوير العام، والبرمجة، وحالات الاستخدام التقني، فإن التصفية لها تأثير ضئيل. أما بالنسبة للتطبيقات التي تتضمن محتوى سياسياً حساساً أو توليداً غير مقيد، فهذا اعتبار مشروع.

ما هي لغات البرمجة التي يتعامل معها V4 بشكل أفضل؟

بناءً على نتائج SWE-Bench (التي تختبر بشكل أساسي Python و JavaScript و Java)، يتفوق V4 في اللغات السائدة. تشير تقارير المجتمع إلى أداء قوي عبر Python و JavaScript/TypeScript و Java و Go و Rust و C++. اللغات الأقل شيوعاً مثل Haskell أو Elixir أو Zig من المرجح أن يكون دعمها أضعف بسبب توزيع بيانات التدريب.

كيف يقارن DeepSeek V4 مع Llama 4 بالنسبة للاستضافة الذاتية؟

كلاهما مفتوح المصدر ومتاح تحت رخص تسمح بالاستخدام. توفر بنية MoE لـ DeepSeek V4 مع ~37B parameter نشط لكل token أداءً أفضل لكل وحدة حسابية مقارنة بالنماذج الكثيفة (dense models). تكمن ميزة Llama 4 في نظام Meta البيئي الأكبر ودعم المجتمع. بالنسبة للقدرة الخالصة مقابل الدولار، فمن المرجح أن يفوز V4. أما بالنسبة لأدوات المجتمع ونظام Fine-tuning البيئي، فقد يكون Llama أكثر سهولة في الوصول.


المصادر

Back to all news
Enjoyed this article?
FAQ

Common questions

هل تم إطلاق DeepSeek V4؟+
تم إطلاق DeepSeek V4 في أوائل مارس 2026، مع ظهور نسخة 'V4 Lite' في 9 مارس. يسجل النموذج الكامل 81% في SWE-Bench Verified وتكلفته 0.30$ لكل مليون input tokens — أي أرخص بحوالي 10 مرات من النماذج المنافسة. الـ Weights متاحة تحت ترخيص Apache 2.0.
كم عدد Parameters في DeepSeek V4؟+
يحتوي DeepSeek V4 على ما يقرب من 1 تريليون total parameters باستخدام Architecture من نوع Mixture-of-Experts (MoE)، ولكنه ينشط فقط حوالي 37 مليار لكل token. هذا يزيد بحوالي 50% من إجمالي parameters عن نسخة V3 البالغة 671 مليار مع الحفاظ على تكاليف inference مماثلة.
ما هو نظام ذاكرة Engram الخاص بـ DeepSeek؟+
Engram هو conditional memory architecture تم تقديمه في ورقة DeepSeek البحثية في يناير 2026. يوفر O(1) deterministic knowledge lookup للأنماط الثابتة مثل أسماء الكيانات، محققاً دقة 97% في Needle-in-a-Haystack على نطاق مليون-token. التقسيم الأمثل للـ parameter هو 20-25% لذاكرة Engram و 75-80% لـ MoE computation.
كيف يقارن DeepSeek V4 بـ GPT-5.4 و Claude Opus 4.6؟+
يسجل DeepSeek V4 نسبة 81% في SWE-Bench Verified (مقابل الرقم القياسي لـ Claude Opus 4.5 البالغ 80.9%)، ويدعم سياق 1M token، وهو multimodal بشكل أصلي. ميزته الرئيسية هي التكلفة: 0.30$/M input tokens مقابل 2.50$ لـ GPT-5.4 و 15.00$ لـ Opus 4.6. وهو مفتوح المصدر تحت ترخيص Apache 2.0 بينما المنافسون مملوكون لشركات (Proprietary).
هل DeepSeek V4 مفتوح المصدر؟+
نعم. تم إصدار weights نموذج DeepSeek V4 تحت ترخيص Apache 2.0، مما يجعله متاحاً مجاناً للـ local deployment، والـ fine-tuning، والاستخدام التجاري دون قيود. وهذا يواصل تقاليد DeepSeek في المصادر المفتوحة منذ V3.

ابنِ مع ZBuild

حوّل فكرتك إلى تطبيق يعمل — بدون برمجة.

أكثر من 46,000 مطور بنوا مع ZBuild هذا الشهر

ابنِ فكرتك بالذكاء الاصطناعي

صف ما تريد — ZBuild يبنيه لك.

أكثر من 46,000 مطور بنوا مع ZBuild هذا الشهر
More Reading

Related articles

دليل Claude Sonnet 4.6 الكامل: Benchmarks، والتسعير، والميزات، ومتى يجب استخدامه (2026)
2026-03-27T00:00:00.000Z

دليل Claude Sonnet 4.6 الكامل: Benchmarks، والتسعير، والميزات، ومتى يجب استخدامه (2026)

الدليل الشامل لـ Claude Sonnet 4.6 — نموذج الفئة المتوسطة من Anthropic الذي تم إصداره في 17 فبراير 2026. يغطي جميع الـ benchmarks (SWE-bench 79.6%، OSWorld 72.5%، ARC-AGI-2 58.3%)، وتسعير API (3 دولار/15 دولار لكل مليون tokens)، وميزة extended thinking، و 1M context window، ومقارنات تفصيلية مع Opus 4.6 و GPT-5.4.

تعمق في GPT-5.4: Context Window، و Vision، و Computer Use، وتكامل Codex (2026)
2026-03-27

تعمق في GPT-5.4: Context Window، و Vision، و Computer Use، وتكامل Codex (2026)

كل ما تحتاج لمعرفته حول GPT-5.4 — النموذج الأكثر قدرة من OpenAI الذي تم إصداره في 5 مارس 2026. يغطي Context Window بسعة 1M-token، وميزة Computer Use الأصلية، و Vision بدقة كاملة، وتكامل Codex، والنتائج المعيارية، والأسعار، وحالات الاستخدام العملي.

دليل Grok 5 الشامل: تاريخ الإصدار، 6T Parameters، Colossus 2 وطموحات xAI في AGI (2026)
2026-03-27T00:00:00.000Z

دليل Grok 5 الشامل: تاريخ الإصدار، 6T Parameters، Colossus 2 وطموحات xAI في AGI (2026)

كل ما هو معروف عن Grok 5 اعتباراً من مارس 2026 — نموذج الـ 6 trillion parameter الذي يتم تدريبه على Colossus 2 supercluster التابع لـ xAI. نغطي تاريخ الإصدار المتأخر، المواصفات التقنية، ادعاء Elon Musk بنسبة 10% للوصول إلى AGI، توقعات benchmarks، وما يعنيه ذلك لصناعة AI.

أفضل AI للبرمجة 2026: التصنيف الكامل لـ 15 أداة حسب الأداء الفعلي
2026-03-27T00:00:00.000Z

أفضل AI للبرمجة 2026: التصنيف الكامل لـ 15 أداة حسب الأداء الفعلي

تصنيف يعتمد على البيانات لكل أداة برمجة ذكاء اصطناعي رئيسية في عام 2026. يغطي درجات SWE-bench، والأسعار، ورضا المطورين، والأداء في العالم الحقيقي لـ Claude Code، و Cursor، و GitHub Copilot، و Windsurf، و Devin، و OpenCode، و Aider، و Cline، والمزيد.