النقاط الرئيسية
- 1 تريليون parameter، و 37B نشط: يستخدم DeepSeek V4 بنية Mixture-of-Experts التي تنشط فقط ~37B parameter لكل token — مما يحافظ على تكاليف inference قابلة للمقارنة مع V3 على الرغم من زيادة إجمالي الـ parameters بنسبة 50%.
- 81% SWE-Bench Verified: يحصد V4 تاج معايير البرمجة — متفوقاً على الرقم القياسي السابق لـ Claude Opus 4.5 البالغ 80.9%.
- ذاكرة Engram هي الاختراق المعماري: نظام ذاكرة شرطي جديد يوفر O(1) knowledge lookup، محققاً دقة 97% في اختبار Needle-in-a-Haystack على مقياس مليون token.
- أرخص بـ 10x من المنافسين الغربيين: بسعر 0.30$/M input tokens، يتفوق V4 على GPT-5.4 (2.50$) و Claude (3-15$) بفارق كبير جداً.
- مفتوح المصدر تحت رخصة Apache 2.0: أوزان النموذج الكاملة متاحة للنشر المحلي، و Fine-tuning، والاستخدام التجاري — وهو النموذج الوحيد من فئة frontier-class الذي يتمتع بهذا المستوى من الانفتاح.
DeepSeek V4: النموذج مفتوح المصدر الذي يعيد كتابة اقتصاديات AI
لقد فعلتها DeepSeek مرة أخرى. بعد أن أثبت V3 أن مختبراً صينياً يمكنه بناء نماذج من فئة frontier-class بكسر بسيط من التكاليف الغربية، يرفع V4 المخاطر إلى مستوى يتطلب اهتماماً من كل مطور، وشركة ناشئة، ومؤسسة تتخذ قرارات بشأن بنية AI التحتية.
تريليون parameter. context window بمليون token. Multimodal أصلي. 81% SWE-Bench Verified. وكل ذلك مفتوح المصدر تحت رخصة Apache 2.0 وبتكاليف inference أقل بـ 10-40x من المنافسين الغربيين.
سواء كانت هذه الادعاءات ستصمد تماماً تحت الفحص المستقل، فهذا أمر لا يزال قيد التحديد. لكن الابتكارات المعمارية — وخاصة ذاكرة Engram — تمثل تقدماً حقيقياً سيؤثر على تصميم النماذج في جميع أنحاء الصناعة بغض النظر عن ذلك.
إليك كل ما نعرفه اعتباراً من March 2026.
الجدول الزمني للإصدار
كان طريق DeepSeek V4 نحو الإصدار وعراً، مع فترات تأخير متعددة:
| التاريخ | الحدث |
|---|---|
| January 2026 | نشر ورقة Engram البحثية — بنية الذاكرة الشرطية |
| February 2026 (أوائل) | هدف الإصدار الأصلي — تم تفويته |
| February 2026 (منتصف) | نافذة الإصدار الثانية — تم تفويتها أيضاً |
| أوائل March 2026 | إطلاق نموذج V4 الكامل |
| March 9, 2026 | ظهور "V4 Lite" على موقع DeepSeek الإلكتروني |
| March 2026 (مستمر) | إجراء اختبارات المقارنة المستقلة والتحقق من قبل المجتمع |
أدى الجدول الزمني المتأخر فعلياً إلى زيادة التوقعات. وبحلول وقت إطلاق V4، كانت ورقة Engram قد نوقشت بالفعل على نطاق واسع، وكانت التوقعات عالية جداً.
تعمق في البنية المعمارية
Mixture-of-Experts على مقياس التريليون
يواصل DeepSeek V4 بنية MoE التي جعلت V3 فعالاً للغاية، لكن مع توسيعها بشكل كبير:
| المقياس | DeepSeek V3 | DeepSeek V4 |
|---|---|---|
| إجمالي Parameters | 671B | ~1T |
| Parameters النشطة | ~37B | ~37B |
| Context Window | 128K | 1M |
| البنية المعمارية | MoE | MoE + Engram |
| Multimodal | نص فقط | نص + صور + فيديو |
| الترخيص | Apache 2.0 | Apache 2.0 |
الفكرة الرئيسية: زاد إجمالي الـ parameters بنسبة 50%، لكن الـ parameters النشطة لكل token ظلت ثابتة عند ~37B. وهذا يعني أن V4 لديه وصول إلى معرفة وقدرات أكبر بكثير دون زيادة تكاليف inference بشكل تناسبي.
Engram: ثورة الذاكرة
Engram هو الابتكار الأكثر أهمية من الناحية المعمارية في V4. تم تفصيله في ورقة DeepSeek لشهر January 2026 ("Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models")، وهو يعالج قيداً أساسياً في نماذج Transformers.
المشكلة: تعالج نماذج Transformers التقليدية كل قطعة من المعرفة بنفس الطريقة — من خلال الحساب. سواء كان النموذج بحاجة إلى تذكر أن "باريس هي عاصمة فرنسا" (حقيقة ثابتة) أو التفكير في إعادة صياغة كود معقد (حساب ديناميكي)، فإنه يستخدم نفس آلية attention. وهذا يعد هدراً.
حل Engram: إضافة نظام ذاكرة منفصل للمعرفة الثابتة والحتمية. بدلاً من حساب الإجابة على "ما هي عاصمة فرنسا؟" من خلال طبقات attention متعددة، يوفر Engram O(1) deterministic lookup — وهو في الأساس جدول hash متعلم للمعرفة الواقعية.
النتيجة الرئيسية — قانون تخصيص Sparsity: كشف بحث DeepSeek أنه في ظل ميزانية parameters محدودة، فإن التقسيم الأمثل هو تقريباً 20-25% ذاكرة (Engram) و 75-80% حساب (MoE). هذه النسبة تزيد من دقة الاسترجاع وقدرة التفكير معاً.
تأثير الأداء: يحقق Engram دقة 97% في اختبار Needle-in-a-Haystack على مقياس context window بمليون token، مما يحل مشكلة تدهور الاسترجاع التي تعاني منها بنيات Transformer القياسية. عند 1M tokens، تنخفض دقة الاسترجاع في معظم النماذج إلى أقل من 80%. بينما يحافظ V4 مع Engram على نسبة 97%.
DeepSeek Sparse Attention (DSA)
بالإضافة إلى Engram، يقدم V4 تقنية DeepSeek Sparse Attention — وهي آلية attention تخصص الحساب ديناميكياً بناءً على تعقيد المدخلات. تحصل المقاطع البسيطة على attention خفيف؛ بينما تحصل مقاطع التفكير المعقدة على عمق attention كامل.
هذا ما يجعل context window بمليون token عملياً. بدون DSA، ستكون معالجة 1M tokens مكلفة للغاية حتى مع تكاليف DeepSeek المنخفضة. مع هذه التقنية، تتم معالجة معظم الـ context window بكفاءة، مع الاحتفاظ بكامل قوة الحساب للأجزاء التي تحتاج إليها.
Manifold-Constrained Hyper-Connections
الابتكار المعماري الثالث هو Manifold-Constrained Hyper-Connections — وهي تقنية تعمل على تحسين تدفق التدرج (gradient flow) أثناء التدريب. والنتيجة العملية هي تدريب أكثر استقراراً في مقياس تريليون parameter، مما يفسر جزئياً كيف دربت DeepSeek نموذج V4 بكسر من التكاليف الغربية.
تحليل معايير الأداء (Benchmarks)
الأرقام
| المعيار | DeepSeek V4 | Claude Opus 4.5 | GPT-5.4 | ملاحظات |
|---|---|---|---|---|
| SWE-Bench Verified | 81% | 80.9% | ~82% | V4 يحطم الرقم القياسي السابق |
| HumanEval | 90% | ~88% | ~90% | توليد الكود البرمجي |
| Context (NIAH) | 97% @ 1M | 95% @ 200K | 96% @ 1M | ميزة Engram |
| Multimodal | أصلي | N/A | أصلي | نص + صور + فيديو |
تنبيه: التحقق المستقل
من المهم ملاحظة أنه اعتباراً من أواخر March 2026، تأتي العديد من هذه الأرقام من اختبارات داخلية. وحتى تؤكد التقييمات الخارجية من منظمات مثل Artificial Analysis أو LMSYS أو الباحثين المستقلين هذه الادعاءات تماماً، يجب التعامل مع النسب المئوية الدقيقة كأهداف طموحة وليست نهائية.
ومع ذلك، تم تأكيد معايير V3 إلى حد كبير من خلال الاختبارات المستقلة، مما يعطي DeepSeek مصداقية بأن أرقام V4 هذه تقع في النطاق الصحيح.
التسعير: ثورة التكلفة مستمرة
يعد تسعير DeepSeek V4 الميزة الأكثر زعزعة للاستقرار:
| النموذج | سعر المدخلات (لكل M tokens) | سعر المخرجات (لكل M tokens) | سعر Cache Hit |
|---|---|---|---|
| DeepSeek V4 | $0.30 | $0.50 | $0.03 |
| GPT-5.4 | $2.50 | $15.00 | N/A |
| Claude Sonnet 4.6 | $3.00 | $15.00 | $0.30 |
| Claude Opus 4.6 | $15.00 | $75.00 | $1.50 |
سعر cache hit جذاب بشكل خاص: إذا كانت مطالباتك (prompts) تشترك في بادئة مشتركة (وهو ما يحدث دائماً في التطبيقات الإنتاجية)، فإن input tokens المخزنة مؤقتاً تكلف 0.03$ فقط لكل مليون — بخصم 90%.
ماذا يعني هذا من الناحية العملية
بالنسبة لمنشئ تطبيقات نموذجي يعالج 100M tokens شهرياً:
| المزود | التكلفة الشهرية |
|---|---|
| DeepSeek V4 | ~40-80$ |
| GPT-5.4 | ~500-1,500$ |
| Claude Sonnet 4.6 | ~600-1,800$ |
| Claude Opus 4.6 | ~3,000-9,000$ |
هذه الميزة في التكلفة التي تتراوح بين 10-40x هي السبب في أهمية DeepSeek لنظام AI البيئي الأوسع. فهي تجعل AI من فئة frontier-class متاحاً للمطورين المستقلين، والشركات الناشئة، وفرق المؤسسات الحساسة للتكاليف.
يمكن لمنصات مثل ZBuild دمج DeepSeek V4 كخيار لنموذج خلفي (backend)، مما ينقل هذه التوفيرات الهائلة في التكاليف مباشرة إلى المستخدمين الذين يبنون تطبيقات مدعومة بـ AI.
Multimodal أصلي: نصوص، صور، وفيديو
على عكس V3 (نص فقط)، V4 هو نموذج Multimodal أصلي. وكما ذكرت صحيفة Financial Times، فإن V4 يدمج توليد النصوص والصور والفيديو أثناء مرحلة pre-training بدلاً من إضافة الرؤية كـ module منفصل.
هذا الأمر مهم لأن:
- التفكير عبر الوسائط (Cross-modal reasoning) أكثر تماسكاً — يفهم النموذج العلاقات بين الأوصاف النصية والمحتوى المرئي بشكل طبيعي.
- فهم الصور والفيديو — يمكن لـ V4 تحليل لقطات الشاشة، والرسوم البيانية، وإطارات الفيديو جنباً إلى جنب مع النصوص.
- قدرات التوليد — تشير التقارير الأولية إلى إمكانية توليد نص-إلى-صورة ونص-إلى-فيديو، على الرغم من أن تقييمات الجودة لا تزال تظهر.
بالنسبة للمطورين الذين يبنون تطبيقات تعالج المحتوى المرئي — تحليل المستندات، تصميم واجهة المستخدم، تلخيص الفيديو — فإن دعم Multimodal الأصلي يلغي الحاجة إلى vision APIs منفصلة.
حالات استخدام Multimodal عملية
يفتح تكامل Multimodal الأصلي عدة مسارات عمل عملية:
- كود من لقطات الشاشة: قدم لقطة شاشة لتصميم واجهة مستخدم وسيقوم V4 بتوليد الكود المقابل — HTML/CSS، أو مكونات React، أو views لـ SwiftUI.
- فهم الرسوم البيانية: أدخل رسوماً بيانية للهندسة المعمارية، أو مخططات التدفق، أو مخططات قواعد البيانات وسيشرح V4 التصميم، أو يحدد المشكلات، أو يولد كود التنفيذ.
- معالجة المستندات: استخراج البيانات المنظمة من المستندات الممسوحة ضوئياً، والفواتير، والنماذج دون الحاجة إلى pipeline منفصل لـ OCR.
- تلخيص الفيديو: معالجة إطارات الفيديو لتوليد ملخصات، أو نصوص، أو تسليط الضوء على اللحظات الرئيسية.
بالنسبة لمنشئي التطبيقات مثل ZBuild، يعني Multimodal الأصلي أنه يمكن للمستخدمين تحميل النماذج الأولية ولقطات الشاشة مباشرة كجزء من سير عمل إنشاء التطبيق — حيث يفهم AI السياق المرئي دون أدوات إضافية.
تأثير المصدر المفتوح
رخصة Apache 2.0 لنموذج DeepSeek V4 هي بلا شك أكثر أهمية من درجات اختبارات الأداء الخاصة به. إليك ما تتيحه:
الاستضافة الذاتية (Self-Hosting)
يمكن للمؤسسات التي لديها متطلبات سيادة البيانات تشغيل V4 على بنيتها التحتية الخاصة. لا API calls، ولا بيانات تخرج من المبنى، ولا تبعية للموردين. الـ ~37B parameters النشطة لكل token تجعله قابلاً للتشغيل على مجموعات GPU المخصصة للمؤسسات عالية الأداء.
Fine-Tuning
تسمح الأوزان المفتوحة بإجراء Fine-tuning لمجالات محددة — طبية، قانونية، مالية، أو أي تخصص رأسي. وهذا مستحيل مع النماذج المملوكة لشركات مثل OpenAI أو Anthropic.
البحث العلمي
تسمح التفاصيل المعمارية الكاملة ومنهجية التدريب لمجتمع البحث بالبناء على ابتكارات DeepSeek. ذاكرة Engram، و DSA، و Manifold-Constrained Hyper-Connections كلها متاحة للدراسة والتحسين.
التحكم في التكاليف
حتى بعيداً عن أسعار API المنخفضة بالفعل من DeepSeek، فإن الاستضافة الذاتية على نطاق واسع يمكن أن تقلل تكاليف الـ token الواحد بشكل أكبر. بالنسبة للتطبيقات ذات الحجم الكبير التي تعالج مليارات الـ tokens شهرياً، يمكن أن تكون الاستضافة الذاتية لـ V4 أرخص بـ 100x من تسعير API المملوك.
DeepSeek V4 مقابل V3: هل يجب عليك الترقية؟
بالنسبة لمستخدمي DeepSeek V3 الحاليين، إليك حسابات الترقية:
| الميزة | V3 | V4 | تأثير الترقية |
|---|---|---|---|
| Context Window | 128K | 1M | مرتفع — يتيح تحليل قواعد الأكواد الضخمة |
| SWE-Bench | 69% | 81% | مرتفع — تحسن بـ 12 نقطة |
| Multimodal | نص فقط | نص + صور + فيديو | متوسط — يعتمد على حالة الاستخدام |
| ذاكرة Engram | لا | نعم | مرتفع — استرجاع أفضل بشكل كبير |
| سعر API | 0.27$/M input | 0.30$/M input | منخفض — زيادة طفيفة في التكلفة |
| البنية المعمارية | MoE | MoE + Engram + DSA | مرتفع — أفضل بشكل أساسي |
الحكم: قم بالترقية. الزيادة في التكلفة ضئيلة، والتحسينات في القدرات — خاصة ذاكرة Engram و context window بمليون token — جوهرية. السبب الوحيد للبقاء على V3 هو إذا كان لديك أعباء عمل إنتاجية تتطلب الاتساق السلوكي الدقيق لنموذجك الحالي.
كيف يتناسب DeepSeek V4 مع نظام المطورين البيئي
للمطورين المستقلين والشركات الناشئة
يجعل تسعير V4 تقنيات AI من فئة frontier-class في متناول ميزانيات الشركات الناشئة. وبالاقتران مع ترخيص Apache 2.0، يمكنك بناء ونشر تطبيقات إنتاجية دون القلق بشأن توسع تكاليف API. تتيح لك أدوات مثل ZBuild التي تدمج العديد من مزودي النماذج الاستفادة من ميزة تكلفة DeepSeek V4 مع الاحتفاظ بخيار توجيه مهام محددة إلى نماذج أخرى عند الحاجة.
لفرق المؤسسات
يعالج خيار الاستضافة الذاتية مخاوف سيادة البيانات والامتثال والتكلفة في آن واحد. تعني قدرة Fine-tuning أنه يمكنك بناء نماذج متخصصة في المجال تتفوق على البدائل العامة في تخصصك المحدد.
للباحثين
تعد البنية المفتوحة منجماً ذهبياً. تفتح ذاكرة Engram وحدها اتجاهات بحثية متعددة — بنيات الذاكرة الشرطية، وتحسين تخصيص sparsity، وأنظمة الاسترجاع والحساب الهجينة.
لصناعة AI
يضغط V4 على كل مزود نماذج رائدة لتبرير تسعيره. عندما يطابق نموذج مفتوح المصدر أو يتجاوز معايير النماذج المملوكة بتكلفة أقل بـ 10x، ينتقل عرض القيمة للنماذج المغلقة من "أداء أفضل" إلى "تكامل ودعم وموثوقية أفضل".
المخاطر والشكوك
التحقق من معايير الأداء (Benchmarks)
يحتاج ادعاء 81% في SWE-Bench إلى تأكيد مستقل. كانت DeepSeek جديرة بالثقة في معايير V3، ولكن من الأصعب تقييم نماذج التريليون parameter باستمرار. انتظر نتائج Artificial Analysis و LMSYS قبل اتخاذ قرارات البنية التحتية بناءً على أرقام دقيقة.
المخاطر الجيوسياسية
DeepSeek هي شركة صينية، والتوترات التكنولوجية بين الولايات المتحدة والصين مستمرة. قد تؤثر ضوابط التصدير، أو قيود الوصول إلى API، أو الضغوط السياسية على التوفر للمطورين الغربيين. الاستضافة الذاتية مع الأوزان المفتوحة تخفف من هذا الخطر ولكنها لا تلغيه.
جودة الـ Multimodal
تعد قدرات Multimodal الجانب الأقل اختباراً في V4. تحتاج جودة فهم الصور والفيديو إلى تحقق واقعي يتجاوز معايير الأداء الداخلية.
الدعم والموثوقية
المصدر المفتوح يعني دعم المجتمع، وليس اتفاقيات مستوى الخدمة (SLAs) الخاصة بالمؤسسات. إذا كان تطبيقك الإنتاجي يعتمد على V4، فأنت مسؤول عن وقت التشغيل (uptime)، والتوسع، واستكشاف الأخطاء وإصلاحها. كانت خدمة API من DeepSeek موثوقة، لكنها لا توفر البنية التحتية لدعم المؤسسات التي توفرها OpenAI أو Anthropic.
الخلاصة
DeepSeek V4 هو أهم نموذج AI مفتوح المصدر تم إصداره في 2026 حتى الآن. إن مزيجه من مقياس تريليون parameter، وابتكار ذاكرة Engram، و context window بمليون token، وقدرات Multimodal الأصلية، والتسعير المنخفض للغاية تحت رخصة Apache 2.0 يجعله بديلاً حقيقياً للنماذج الرائدة المملوكة.
التحذيرات حقيقية — التحقق من المعايير مستمر، والمخاطر الجيوسياسية موجودة، ودعم المؤسسات محدود. ولكن بالنسبة للمطورين والمؤسسات المستعدة للتعامل مع تلك الشكوك، يوفر V4 قدرات من فئة frontier-class بكسر بسيط من التكلفة.
سواء كنت تصل إليه من خلال API الخاص بـ DeepSeek، أو تستضيفه ذاتياً على بنيتك التحتية، أو تستخدمه من خلال منصات مثل ZBuild التي تدمج العديد من مزودي النماذج، فإن DeepSeek V4 يستحق مكاناً في مجموعة أدوات AI الخاصة بك.
الأسئلة الأكثر شيوعاً
هل يمكنني الاستضافة الذاتية لـ DeepSeek V4 على أجهزة المستهلكين؟
ليس بشكل عملي. بينما ينشط النموذج حوالي ~37B parameters فقط لكل token، فإن استضافة نموذج MoE الكامل بـ 1T parameter تتطلب ذاكرة GPU كبيرة لجداول توجيه الخبراء (expert routing tables). ستحتاج إلى مجموعات GPU من فئة المؤسسات (عدة A100s أو H100s). بالنسبة لمعظم المطورين، يعد API الخاص بـ DeepSeek بسعر 0.30$/M input tokens أكثر فعالية من حيث التكلفة بكثير من الاستضافة الذاتية ما لم تكن تعالج مليارات الـ tokens شهرياً.
كيف يختلف V4 Lite عن نموذج V4 الكامل؟
ظهر DeepSeek V4 Lite على موقع DeepSeek الإلكتروني في March 9, 2026، ولكن لم يتم نشر أي مواصفات رسمية. بناءً على أنماط تسمية DeepSeek مع V3، فمن المرجح أن يشير "Lite" إلى نسخة مقطرة أو أصغر محسنة للسرعة والتكلفة على حساب بعض القدرات. توقع أن يكون أسرع وأرخص ولكن مع أداء أقل في مهام التفكير المعقدة.
هل يخضع DeepSeek V4 للرقابة في مواضيع معينة؟
مثل جميع نماذج AI الصينية، يحتوي DeepSeek V4 على تصفية للمحتوى في المواضيع الحساسة سياسياً، وخاصة تلك المتعلقة بالسياسة والحوكمة الصينية. بالنسبة للتطوير العام، والبرمجة، وحالات الاستخدام التقني، فإن التصفية لها تأثير ضئيل. أما بالنسبة للتطبيقات التي تتضمن محتوى سياسياً حساساً أو توليداً غير مقيد، فهذا اعتبار مشروع.
ما هي لغات البرمجة التي يتعامل معها V4 بشكل أفضل؟
بناءً على نتائج SWE-Bench (التي تختبر بشكل أساسي Python و JavaScript و Java)، يتفوق V4 في اللغات السائدة. تشير تقارير المجتمع إلى أداء قوي عبر Python و JavaScript/TypeScript و Java و Go و Rust و C++. اللغات الأقل شيوعاً مثل Haskell أو Elixir أو Zig من المرجح أن يكون دعمها أضعف بسبب توزيع بيانات التدريب.
كيف يقارن DeepSeek V4 مع Llama 4 بالنسبة للاستضافة الذاتية؟
كلاهما مفتوح المصدر ومتاح تحت رخص تسمح بالاستخدام. توفر بنية MoE لـ DeepSeek V4 مع ~37B parameter نشط لكل token أداءً أفضل لكل وحدة حسابية مقارنة بالنماذج الكثيفة (dense models). تكمن ميزة Llama 4 في نظام Meta البيئي الأكبر ودعم المجتمع. بالنسبة للقدرة الخالصة مقابل الدولار، فمن المرجح أن يفوز V4. أما بالنسبة لأدوات المجتمع ونظام Fine-tuning البيئي، فقد يكون Llama أكثر سهولة في الوصول.
المصادر
- DeepSeek V4: Engram Architecture Revealed
- DeepSeek V4: What's Next — Architecture, DSA, Engram & More
- Introl: DeepSeek V4's 1-Trillion Parameter Architecture
- ByteIota: DeepSeek V4 Targets 80.9% SWE-Bench Record
- CyberNews: DeepSeek V4 Review
- Evolink: DeepSeek V4 Release Date
- PromptZone: DeepSeek V4 Status Report March 2026
- VERTU: DeepSeek V4 Engram Architecture
- Kili Technology: DeepSeek V4 Guide
- Evermx: DeepSeek V4 Multimodal Launch
- RecodeChina: DeepSeek's Next Move
- DeepSeek V4 Status and Leaks