Klíčové poznatky
- 1 bilion parametrů, 37B aktivních: DeepSeek V4 využívá architekturu Mixture-of-Experts, která aktivuje pouze ~37B parametrů na token — což udržuje náklady na inference srovnatelné s V3 i přes 50% nárůst celkového počtu parametrů.
- 81% SWE-Bench Verified: V4 si nárokuje korunu v kódovacích benchmarcích — překonává předchozí rekord modelu Claude Opus 4.5, který činil 80.9%.
- Paměť Engram je architektonický průlom: Nový systém podmíněné paměti, který poskytuje vyhledávání znalostí v čase O(1), dosahuje 97% přesnosti v testu Needle-in-a-Haystack při měřítku milionu tokenů.
- 10x levnější než západní konkurenti: S cenou $0.30/M input tokens V4 podkopává GPT-5.4 ($2.50) a Claude ($3-15) o řád.
- Open-source pod licencí Apache 2.0: Plné váhy modelu jsou k dispozici pro lokální nasazení, fine-tuning a komerční využití — jde o jediný model frontier-třídy s touto úrovní otevřenosti.
DeepSeek V4: Open-source model, který přepisuje ekonomiku AI
DeepSeek to dokázal znovu. Poté, co V3 dokázal, že čínská laboratoř může postavit modely frontier-třídy za zlomek západních nákladů, V4 zvyšuje sázky na úroveň, která vyžaduje pozornost každého vývojáře, startupu i podniku rozhodujícího o AI infrastruktuře.
Jeden bilion parametrů. Kontext o délce milionu tokenů. Nativně multimodální. 81% SWE-Bench Verified. A to vše jako open-source pod licencí Apache 2.0 s 10-40x nižšími náklady na inference než u západních konkurentů.
Zda tato tvrzení plně obstojí při nezávislém zkoumání, se stále zjišťuje. Architektonické inovace — zejména paměť Engram — však představují skutečný pokrok, který ovlivní design modelů v celém odvětví bez ohledu na výsledek.
Zde je vše, co víme k březnu 2026.
Časová osa vydání
Cesta modelu DeepSeek V4 k vydání byla hrbolatá, s několika odloženými termíny:
| Datum | Událost |
|---|---|
| Leden 2026 | Publikování práce o Engram — architektura podmíněné paměti |
| Únor 2026 (začátek) | Původní cíl vydání — zmeškán |
| Únor 2026 (polovina) | Druhý termín vydání — také zmeškán |
| Začátek března 2026 | Spuštěn plný model V4 |
| 9. března 2026 | Na webu DeepSeek se objevil "V4 Lite" |
| Březen 2026 (probíhá) | Nezávislé benchmarkování a validace komunitou |
Odložená časová osa ve skutečnosti zvýšila očekávání. V době, kdy byl V4 spuštěn, se o práci o Engram již široce diskutovalo a očekávání byla obrovská.
Detailní pohled na architekturu
Mixture-of-Experts v bilionovém měřítku
DeepSeek V4 pokračuje v architektuře MoE, díky které byla verze V3 tak efektivní, ale výrazně ji škáluje:
| Metrika | DeepSeek V3 | DeepSeek V4 |
|---|---|---|
| Celkový počet parametrů | 671B | ~1T |
| Aktivní parametry | ~37B | ~37B |
| Kontextové okno | 128K | 1M |
| Architektura | MoE | MoE + Engram |
| Multimodální | Pouze text | Text + Obrázek + Video |
| Licence | Apache 2.0 | Apache 2.0 |
Klíčové zjištění: celkový počet parametrů se zvýšil o 50 %, ale aktivní parametry na token zůstaly konstantní na úrovni ~37B. To znamená, že V4 má přístup k mnohem větším znalostem a schopnostem bez proporcionálního zvýšení nákladů na inference.
Engram: Revoluce v paměti
Engram je architektonicky nejvýznamnější inovací ve V4. Podrobně popsaný v lednové práci roku 2026 od DeepSeek ("Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models") řeší základní omezení architektury Transformers.
Problém: Tradiční Transformers přistupují ke každému kousku znalostí stejným způsobem — prostřednictvím výpočtu. Ať už model potřebuje vyvolat, že "Paříž je hlavní město Francie" (statický fakt), nebo uvažovat o složitém refaktorování kódu (dynamický výpočet), používá stejný mechanismus attention. To je neefektivní.
Řešení Engram: Přidává samostatný paměťový systém pro statické, deterministické znalosti. Namísto výpočtu odpovědi na otázku "Jaké je hlavní město Francie?" přes více vrstev attention, poskytuje Engram deterministické vyhledávání O(1) — v podstatě naučenou hashovací tabulku pro faktické znalosti.
Klíčové zjištění — Sparsity Allocation Law: Výzkum DeepSeek odhalil, že při fixním rozpočtu na řídké (sparse) parametry je optimální rozdělení přibližně 20-25 % paměť (Engram) a 75-80 % výpočet (MoE). Tento poměr maximalizuje jak přesnost vybavování, tak schopnost uvažování.
Dopad na výkon: Engram dosahuje 97% přesnosti v testu Needle-in-a-Haystack při měřítku kontextu milionu tokenů, čímž řeší problém degradace vyhledávání, který trápí standardní architektury Transformer. Při 1M tokenů klesá u většiny modelů přesnost vyhledávání pod 80 %. V4 s Engram udržuje 97 %.
DeepSeek Sparse Attention (DSA)
Kromě Engram zavádí V4 DeepSeek Sparse Attention — mechanismus attention, který dynamicky alokuje výpočetní výkon na základě složitosti vstupu. Jednoduché pasáže dostávají odlehčenou attention; pasáže se složitým uvažováním dostávají plnou hloubku attention.
Právě díky tomu je kontextové okno o velikosti milionu tokenů prakticky použitelné. Bez DSA by zpracování 1M tokenů bylo neúnosně drahé i při nízkých nákladech DeepSeek. Díky němu je většina kontextového okna zpracována efektivně, přičemž plný výpočetní výkon je vyhrazen pro části, které ho skutečně potřebují.
Manifold-Constrained Hyper-Connections
Třetí architektonickou inovací jsou Manifold-Constrained Hyper-Connections — technika, která zlepšuje tok gradientu (gradient flow) během trénování. Praktickým výsledkem je stabilnější trénování v měřítku bilionu parametrů, což částečně vysvětluje, jak DeepSeek vytrénoval V4 za zlomek západních nákladů.
Analýza benchmarků
Čísla
| Benchmark | DeepSeek V4 | Claude Opus 4.5 | GPT-5.4 | Poznámky |
|---|---|---|---|---|
| SWE-Bench Verified | 81% | 80.9% | ~82% | V4 překonává předchozí rekord |
| HumanEval | 90% | ~88% | ~90% | Generování kódu |
| Kontext (NIAH) | 97% @ 1M | 95% @ 200K | 96% @ 1M | Výhoda Engram |
| Multimodální | Nativní | N/A | Nativní | Text + Obrázek + Video |
Upozornění: Nezávislé ověření
Je důležité poznamenat, že ke konci března 2026 mnoho z těchto čísel pochází z interních benchmarků. Dokud nezávislá hodnocení od organizací jako Artificial Analysis, LMSYS nebo od nezávislých výzkumníků tato tvrzení plně nepotvrdí, považujte přesná procenta spíše za ambiciózní než definitivní.
Nicméně, benchmarky V3 byly z velké části potvrzeny nezávislým testováním, což dává DeepSeek důvěryhodnost, že tato čísla V4 se pohybují v reálných mezích.
Ceny: Revoluce v nákladech pokračuje
Cenová politika DeepSeek V4 je jeho nejvíce převratnou vlastností:
| Model | Cena za vstup (za M tokenů) | Cena za výstup (za M tokenů) | Cena při Cache Hit |
|---|---|---|---|
| DeepSeek V4 | $0.30 | $0.50 | $0.03 |
| GPT-5.4 | $2.50 | $15.00 | N/A |
| Claude Sonnet 4.6 | $3.00 | $15.00 | $0.30 |
| Claude Opus 4.6 | $15.00 | $75.00 | $1.50 |
Cena za cache hit je obzvláště lákavá: pokud vaše prompty sdílejí společný prefix (což se v produkčních aplikacích stává téměř vždy), stojí cachované vstupní tokeny pouze $0.03 za milion — což je 90% sleva.
Co to znamená v praxi
Pro typického tvůrce aplikací, který zpracovává 100M tokenů měsíčně:
| Poskytovatel | Měsíční náklady |
|---|---|
| DeepSeek V4 | ~$40-80 |
| GPT-5.4 | ~$500-1,500 |
| Claude Sonnet 4.6 | ~$600-1,800 |
| Claude Opus 4.6 | ~$3,000-9,000 |
Tato 10-40x nákladová výhoda je důvodem, proč je DeepSeek důležitý pro širší ekosystém AI. Zpřístupňuje AI frontier-třídy nezávislým vývojářům, malým startupům a podnikovým týmům citlivým na náklady.
Platformy jako ZBuild mohou integrovat DeepSeek V4 jako volitelný backendový model a přenášet tyto dramatické úspory přímo na uživatele budující aplikace poháněné AI.
Nativní multimodální podpora: Text, obrázky a video
Na rozdíl od V3 (pouze text) je V4 nativně multimodální. Jak informoval Financial Times, V4 integruje generování textu, obrázků a videa již během pre-trainingu, místo aby vizi přidával jako samostatný modul.
To je důležité, protože:
- Mezimediální uvažování je soudržnější — model nativně rozumí vztahům mezi textovými popisy a vizuálním obsahem.
- Porozumění obrázkům a videu — V4 dokáže analyzovat screenshoty, diagramy a snímky z videa společně s textem.
- Možnosti generování — rané zprávy naznačují generování text-to-image a text-to-video, ačkoliv hodnocení kvality se teprve objevují.
Pro vývojáře budující aplikace, které zpracovávají vizuální obsah — analýzu dokumentů, design UI, sumarizaci videa — nativní multimodální podpora eliminuje potřebu samostatných vizuálních API.
Praktické případy použití multimodality
Nativní multimodální integrace otevírá několik praktických pracovních postupů:
- Kód ze screenshotů: Poskytněte screenshot designu UI a V4 vygeneruje odpovídající kód — HTML/CSS, komponenty React nebo zobrazení SwiftUI.
- Porozumění diagramům: Vložte diagramy architektury, vývojové diagramy nebo databázová schémata a V4 vysvětlí návrh, identifikuje problémy nebo vygeneruje implementační kód.
- Zpracování dokumentů: Extrahujte strukturovaná data z naskenovaných dokumentů, faktur a formulářů bez samostatného OCR řetězce.
- Sumarizace videa: Zpracovávejte snímky videa pro generování shrnutí, přepisů nebo zvýraznění klíčových momentů.
Pro tvůrce aplikací, jako je ZBuild, znamená nativní multimodalita, že uživatelé mohou nahrávat mockupu a screenshoty přímo jako součást procesu tvorby aplikace — AI rozumí vizuálnímu kontextu bez dalších nástrojů.
Dopad open-source
Licence Apache 2.0 u DeepSeek V4 je pravděpodobně významnější než jeho výsledky v benchmarcích. Zde je to, co umožňuje:
Self-hosting
Organizace s požadavky na datovou suverenitu mohou provozovat V4 na vlastní infrastruktuře. Žádná volání API, žádná data opouštějící budovu, žádná závislost na dodavateli. Díky ~37B aktivním parametrům na token je model provozovatelný na špičkových podnikových GPU clusterech.
Fine-tuning
Otevřené váhy umožňují specifický fine-tuning pro danou doménu — lékařskou, právní, finanční nebo jakoukoli specializovanou vertikálu. To je u proprietárních modelů od OpenAI nebo Anthropic nemožné.
Výzkum
Plné detaily architektury a metodologie trénování umožňují výzkumné komunitě stavět na inovacích DeepSeek. Paměť Engram, DSA a Manifold-Constrained Hyper-Connections jsou k dispozici pro studium a vylepšování.
Kontrola nákladů
I nad rámec již tak nízkých cen API u DeepSeek může self-hosting ve velkém měřítku dále snížit náklady na token. Pro aplikace s vysokým objemem zpracovávající miliardy tokenů měsíčně může být self-hosting V4 100x levnější než ceny proprietárních API.
DeepSeek V4 vs. V3: Měli byste upgradovat?
Pro stávající uživatele DeepSeek V3 je zde kalkulace upgradu:
| Funkce | V3 | V4 | Dopad upgradu |
|---|---|---|---|
| Kontextové okno | 128K | 1M | Vysoký — umožňuje analýzu celých codebase |
| SWE-Bench | 69% | 81% | Vysoký — zlepšení o 12 bodů |
| Multimodální | Pouze text | Text + Obrázek + Video | Střední — závisí na případu použití |
| Paměť Engram | Ne | Ano | Vysoký — dramaticky lepší vyhledávání |
| Cena API | $0.27/M input | $0.30/M input | Nízký — minimální nárůst nákladů |
| Architektura | MoE | MoE + Engram + DSA | Vysoký — fundamentálně lepší |
Verdikt: Upgradujte. Nárůst nákladů je zanedbatelný a zlepšení schopností — zejména paměť Engram a miliónové kontextové okno — je značné. Jediným důvodem, proč zůstat u V3, je situace, kdy máte produkční zátěž vyžadující přesnou konzistenci chování vašeho současného modelu.
Jak DeepSeek V4 zapadá do vývojářského ekosystému
Pro nezávislé vývojáře a startupy
Ceny V4 zpřístupňují AI frontier-třídy i pro startupové rozpočty. V kombinaci s licencí Apache 2.0 můžete stavět a nasazovat produkční aplikace bez obav z nákladů na škálování API. Nástroje jako ZBuild, které integrují více poskytovatelů modelů, vám umožní využít nákladovou výhodu DeepSeek V4 a zároveň si ponechat možnost směrovat specifické úkoly na jiné modely, když je to potřeba.
Pro podnikové týmy
Možnost self-hostingu řeší datovou suverenitu, shodu s předpisy (compliance) a obavy o náklady současně. Schopnost fine-tuningu znamená, že můžete postavit modely specifické pro danou doménu, které ve vaší vertikále překonají univerzální alternativy.
Pro výzkumníky
Otevřená architektura je zlatý důl. Samotná paměť Engram otevírá několik výzkumných směrů — architektury podmíněné paměti, optimalizaci alokace sparsity a hybridní systémy pro vyhledávání a výpočet.
Pro AI průmysl
V4 vyvíjí tlak na každého poskytovatele frontier modelů, aby obhájil své ceny. Když se open-source model vyrovná nebo předčí proprietární benchmarky při 10x nižších nákladech, hodnota uzavřených modelů se posouvá od "lepšího výkonu" k "lepší integraci, podpoře a spolehlivosti".
Rizika a nejistoty
Verifikace benchmarků
Tvrzení o 81% SWE-Bench vyžaduje nezávislé potvrzení. DeepSeek byl u benchmarků V3 důvěryhodný, ale modely s bilionem parametrů se hůře konzistentně vyhodnocují. Před rozhodnutím o infrastruktuře založeném na přesných číslech počkejte na výsledky Artificial Analysis a LMSYS.
Geopolitické riziko
DeepSeek je čínská společnost a technologické napětí mezi USA a Čínou pokračuje. Kontroly exportu, omezení přístupu k API nebo politický tlak by mohly ovlivnit dostupnost pro západní vývojáře. Self-hosting s otevřenými vahami toto riziko zmírňuje, ale neeliminuje.
Kvalita multimodality
Multimodální schopnosti jsou nejméně otestovanou stránkou V4. Kvalita porozumění obrázkům a videu vyžaduje validaci v reálném světě nad rámec interních benchmarků.
Podpora a spolehlivost
Open-source znamená komunitní podporu, nikoli podnikové SLA. Pokud vaše produkční aplikace závisí na V4, jste zodpovědní za dostupnost, škálování a ladění. API služba DeepSeek je spolehlivá, ale nenabízí podnikovou podpůrnou infrastrukturu jako OpenAI nebo Anthropic.
Sečteno a podtrženo
DeepSeek V4 je nejdůležitější open-source AI model vydaný v roce 2026 k dnešnímu dni. Jeho kombinace bilionového měřítka, inovace paměti Engram, miliónového kontextu, nativních multimodálních schopností a agresivně nízkých cen pod licencí Apache 2.0 z něj činí skutečnou alternativu k proprietárním frontier modelům.
Výhrady jsou reálné — ověřování benchmarků probíhá, existují geopolitická rizika a podniková podpora je omezená. Ale pro vývojáře a organizace ochotné se v těchto nejistotách orientovat nabízí V4 schopnosti frontier-třídy za zlomek nákladů.
Ať už k němu přistupujete přes API od DeepSeek, hostujete jej sami na své infrastruktuře, nebo jej používáte prostřednictvím platforem jako ZBuild, které integrují více poskytovatelů modelů, DeepSeek V4 si zaslouží místo ve vašem AI nástroji.
Často kladené otázky
Mohu DeepSeek V4 hostovat sami na spotřebitelském hardwaru?
Prakticky nikoliv. I když model aktivuje pouze ~37B parametrů na token, hostování plného 1T parametrového MoE modelu vyžaduje značnou paměť GPU pro směrovací tabulky expertů. Budete potřebovat GPU clustery podnikové třídy (vícero A100 nebo H100). Pro většinu vývojářů je API od DeepSeek při ceně $0.30/M input tokens mnohem efektivnější než self-hosting, pokud nezpracováváte miliardy tokenů měsíčně.
Jak se liší V4 Lite od plného modelu V4?
DeepSeek V4 Lite se objevil na webu DeepSeek 9. března 2026, ale nebyly publikovány žádné oficiální specifikace. Na základě pojmenování u V3 se "Lite" pravděpodobně vztahuje k destilované nebo menší variantě optimalizované pro rychlost a cenu na úkor některých schopností. Očekávejte, že bude rychlejší a levnější, ale s nižším výkonem u úkolů se složitým uvažováním.
Je DeepSeek V4 cenzurován pro určitá témata?
Jako všechny čínské AI modely má i DeepSeek V4 filtrování obsahu pro politicky citlivá témata, zejména ta týkající se čínské politiky a správy věcí veřejných. Pro běžný vývoj, kódování a technické případy použití má filtrování minimální dopad. Pro aplikace zahrnující citlivý politický obsah nebo neomezené generování je to legitimní faktor k uvážení.
Které programovací jazyky zvládá V4 nejlépe?
Na základě výsledků SWE-Bench (které primárně testují Python, JavaScript a Java) V4 vyniká v hlavních jazycích. Komunitní zprávy naznačují silný výkon v Python, JavaScript/TypeScript, Java, Go, Rust a C++. Méně časté jazyky jako Haskell, Elixir nebo Zig mají pravděpodobně slabší podporu kvůli distribuci trénovacích dat.
Jak si DeepSeek V4 stojí v porovnání s Llama 4 u self-hostingu?
Oba jsou open-source a dostupné pod permisivními licencemi. Architektura MoE u DeepSeek V4 s ~37B aktivními parametry na token nabízí lepší výkon na jednotku výpočtu než husté (dense) modely. Výhodou Llama 4 je větší ekosystém společnosti Meta a podpora komunity. Z hlediska čistých schopností za dolar pravděpodobně vyhrává V4. Z hlediska komunitních nástrojů a ekosystému fine-tuningu může být přístupnější Llama.
Zdroje
- DeepSeek V4: Engram Architecture Revealed
- DeepSeek V4: What's Next — Architecture, DSA, Engram & More
- Introl: DeepSeek V4's 1-Trillion Parameter Architecture
- ByteIota: DeepSeek V4 Targets 80.9% SWE-Bench Record
- CyberNews: DeepSeek V4 Review
- Evolink: DeepSeek V4 Release Date
- PromptZone: DeepSeek V4 Status Report March 2026
- VERTU: DeepSeek V4 Engram Architecture
- Kili Technology: DeepSeek V4 Guide
- Evermx: DeepSeek V4 Multimodal Launch
- RecodeChina: DeepSeek's Next Move
- DeepSeek V4 Status and Leaks