Keskeiset havainnot
- 1 biljoonaa parametria, 37B aktiivista: DeepSeek V4 käyttää Mixture-of-Experts-arkkitehtuuria, joka aktivoi vain ~37B parametria per token — pitäen inference-kustannukset verrattavissa V3-malliin huolimatta 50% suuremmasta kokonaisparametrimäärästä.
- 81% SWE-bench Verified: V4 vaatii koodausvertailun kärkipaikan — voittaen Claude Opus 4.5:n aiemman 80.9% ennätyksen.
- Engram-muisti on arkkitehtuurinen läpimurto: Uusi ehdollinen muistijärjestelmä, joka tarjoaa O(1) tiedonhaun saavuttaen 97% tarkkuuden Needle-in-a-Haystack-testissä miljoonan tokenin skaalassa.
- 10x halvempi kuin länsimaiset kilpailijat: $0.30/M input tokens hintaan V4 alittaa GPT-5.4 ($2.50) ja Claude ($3-15) hinnan kertaluokalla.
- Avointa lähdekoodia Apache 2.0 -lisenssillä: Täydet mallin painot saatavilla paikalliseen käyttöönottoon, hienosäätöön ja kaupalliseen käyttöön — ainoa frontier-luokan malli tällä avoimuuden tasolla.
DeepSeek V4: Avoimen lähdekoodin malli, joka kirjoittaa tekoälyn taloustiedettä uusiksi
DeepSeek on tehnyt sen taas. Sen jälkeen kun V3 osoitti, että kiinalainen laboratorio pystyy rakentamaan frontier-luokan malleja murto-osalla länsimaisista kustannuksista, V4 nostaa panoksia tasolle, joka vaatii huomiota jokaiselta kehittäjältä, startupilta ja yritykseltä, joka tekee tekoälyinfrastruktuuripäätöksiä.
Yksi biljoona parametria. Miljoonan tokenin konteksti. Natiivi multimodaalisuus. 81% SWE-bench Verified. Ja kaikki tämä avointa lähdekoodia Apache 2.0 -lisenssillä 10-40x alhaisemmilla inference-kustannuksilla kuin länsimaisilla kilpailijoilla.
Pitävätkö nämä väitteet täysin paikkansa riippumattomassa tarkastelussa, on vielä selvityksen alla. Mutta arkkitehtuuriset innovaatiot — erityisesti Engram-muisti — edustavat aitoja edistysaskelia, jotka tulevat vaikuttamaan mallien suunnitteluun koko alalla joka tapauksessa.
Tässä on kaikki, mitä tiedämme maaliskuuta 2026 mennessä.
Julkaisuaikataulu
DeepSeek V4:n polku julkaisuun oli mutkikas ja sisälsi useita viivästyksiä:
| Päivämäärä | Tapahtuma |
|---|---|
| Tammikuu 2026 | Engram-artikkeli julkaistu — ehdollinen muistiarkkitehtuuri |
| Helmikuu 2026 (alku) | Alkuperäinen julkaisutavoite — myöhästyi |
| Helmikuu 2026 (puoliväli) | Toinen julkaisuikkuna — myös myöhästyi |
| Maaliskuun alku 2026 | Täysi V4-malli julkaistu |
| 9. maaliskuuta 2026 | "V4 Lite" ilmestyi DeepSeek-verkkosivustolle |
| Maaliskuu 2026 (meneillään) | Riippumaton vertailu ja yhteisön validointi |
Viivästynyt aikataulu itse asiassa kasvatti odotuksia. Siinä vaiheessa kun V4 julkaistiin, Engram-artikkelista oli jo keskusteltu laajasti ja odotukset olivat huipussaan.
Syväsukellus arkkitehtuuriin
Mixture-of-Experts biljoonan luokassa
DeepSeek V4 jatkaa MoE-arkkitehtuuria, joka teki V3-mallista niin tehokkaan, mutta skaalaa sen dramaattisesti:
| Metriikka | DeepSeek V3 | DeepSeek V4 |
|---|---|---|
| Kokonaisparametrit | 671B | ~1T |
| Aktiiviset parametrit | ~37B | ~37B |
| Konteksti-ikkuna | 128K | 1M |
| Arkkitehtuuri | MoE | MoE + Engram |
| Multimodaalisuus | Vain teksti | Teksti + Kuva + Video |
| Lisenssi | Apache 2.0 | Apache 2.0 |
Keskeinen havainto: kokonaisparametrimäärä kasvoi 50%, mutta aktiiviset parametrit per token pysyivät vakiona tasolla ~37B. Tämä tarkoittaa, että V4-mallilla on pääsy huomattavasti laajempaan tietoon ja kyvykkyyteen ilman, että inference-kustannukset nousevat suhteellisesti.
Engram: Muistivallankumous
Engram on arkkitehtuurisesti merkittävin innovaatio V4-mallissa. Yksityiskohtaisesti DeepSeek-yhtiön tammikuun 2026 artikkelissa ("Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models") se vastaa Transformereiden perusrajoitteeseen.
Ongelma: Perinteiset Transformerit käsittelevät jokaista tiedonmuruista samalla tavalla — laskennan kautta. Riippumatta siitä, pitääkö mallin palauttaa mieleen, että "Pariisi on Ranskan pääkaupunki" (staattinen fakta) vai päätellä monimutkaista koodin refaktorointia (dynaaminen laskenta), se käyttää samaa attention-mekanismia. Tämä on tuhlausta.
Engramin ratkaisu: Lisää erillinen muistijärjestelmä staattiselle, deterministiselle tiedolle. Sen sijaan, että lasketaan vastaus kysymykseen "Mikä on Ranskan pääkaupunki?" useiden attention-kerrosten kautta, Engram tarjoaa O(1) deterministisen haun — käytännössä opitun hash-taulukon faktatiedolle.
Keskeinen löydös — Harvuuden jakautumislaki: DeepSeek-tutkimus paljasti, että kiinteällä harvalla parametribudjetilla optimaalinen jako on noin 20-25% muistia (Engram) ja 75-80% laskentaa (MoE). Tämä suhde maksimoi sekä tiedonpalautustarkkuuden että päättelykyvyn.
Vaikutus suorituskykyyn: Engram saavuttaa 97% Needle-in-a-Haystack-tarkkuuden miljoonan tokenin kontekstiskaalassa, ratkaisten tiedonhaun heikkenemisen ongelman, joka vaivaa vakio-Transformer-arkkitehtuureja. 1M tokenin kohdalla useimpien mallien tiedonhakutarkkuus putoaa alle 80%. V4 Engram-muistilla säilyttää 97% tason.
DeepSeek Sparse Attention (DSA)
Engram-muistin lisäksi V4 esittelee DeepSeek Sparse Attention -mekanismin — attention-mekanismi, joka kohdentaa laskentatehoa dynaamisesti syötteen monimutkaisuuden perusteella. Yksinkertaiset kohdat saavat kevyttä huomiota; monimutkaiset päättelykohdat saavat täyden attention-syvyyden.
Tämä tekee miljoonan tokenin konteksti-ikkunasta käytännöllisen. Ilman DSA-mekanismia 1M tokenin käsittely olisi kohtuuttoman kallista jopa DeepSeek-yhtiön alhaisilla kustannuksilla. Sen avulla suurin osa konteksti-ikkunasta käsitellään tehokkaasti, ja täysi laskentateho varataan osille, jotka sitä tarvitsevat.
Manifold-Constrained Hyper-Connections
Kolmas arkkitehtuurinen innovaatio on Manifold-Constrained Hyper-Connections — tekniikka, joka parantaa gradienttien virtausta koulutuksen aikana. Käytännön tulos on vakaampi koulutus biljoonan parametrin skaalassa, mikä osaltaan selittää, miten DeepSeek koulutti V4-mallin murto-osalla länsimaisista kustannuksista.
Suorituskykyanalyysi
Numerot
| Vertailukoe | DeepSeek V4 | Claude Opus 4.5 | GPT-5.4 | Huomautukset |
|---|---|---|---|---|
| SWE-bench Verified | 81% | 80.9% | ~82% | V4 voittaa aiemman ennätyksen |
| HumanEval | 90% | ~88% | ~90% | Koodin generointi |
| Context (NIAH) | 97% @ 1M | 95% @ 200K | 96% @ 1M | Engram-etu |
| Multimodaalisuus | Natiivi | Ei saatavilla | Natiivi | Teksti + Kuva + Video |
Varoitus: Riippumaton vahvistus
On tärkeää huomata, että maaliskuun lopulla 2026 monet näistä luvuista ovat peräisin sisäisistä vertailuista. Ennen kuin kolmannen osapuolen arvioinnit organisaatioilta kuten Artificial Analysis, LMSYS tai riippumattomat tutkijat vahvistavat väitteet täysin, tarkkoja prosenttiosuuksia tulee pitää tavoitteellisina eikä lopullisina.
Tästä huolimatta V3-mallin vertailutulokset vahvistettiin laajasti riippumattomissa testeissä, mikä antaa DeepSeek-yhtiölle uskottavuutta sille, että nämä V4-luvut ovat oikealla suuntaveikolla.
Hinnoittelu: Kustannusvallankumous jatkuu
DeepSeek V4:n hinnoittelu on sen mullistavin ominaisuus:
| Malli | Syötteen hinta (per M tokenia) | Tulosteen hinta (per M tokenia) | Cache-osuman hinta |
|---|---|---|---|
| DeepSeek V4 | $0.30 | $0.50 | $0.03 |
| GPT-5.4 | $2.50 | $15.00 | Ei saatavilla |
| Claude Sonnet 4.6 | $3.00 | $15.00 | $0.30 |
| Claude Opus 4.6 | $15.00 | $75.00 | $1.50 |
Välimuistin hinta on erityisen houkutteleva: jos kehotteesi jakavat yhteisen etuliitteen (kuten tuotantosovelluksissa lähes aina käy), välimuistiin tallennetut syötetokenit maksavat vain $0.03 miljoonaa kohden — 90% alennus.
Mitä tämä tarkoittaa käytännössä
Tyypilliselle sovelluskehittäjälle, joka käsittelee 100M tokenia kuukaudessa:
| Tarjoaja | Kuukausittaiset kustannukset |
|---|---|
| DeepSeek V4 | ~$40-80 |
| GPT-5.4 | ~$500-1,500 |
| Claude Sonnet 4.6 | ~$600-1,800 |
| Claude Opus 4.6 | ~$3,000-9,000 |
Tämä 10-40x kustannusetu on syy, miksi DeepSeek on merkittävä koko tekoälyekosysteemille. Se tuo frontier-luokan tekoälyn indie-kehittäjien, pienten startupien ja kustannustietoisen yritystiimien ulottuville.
Alustat kuten ZBuild voivat integroida DeepSeek V4 -mallin backend-vaihtoehdoksi, siirtäen nämä dramaattiset säästöt suoraan käyttäjille, jotka rakentavat tekoälypohjaisia sovelluksia.
Natiivi multimodaalisuus: Teksti, kuva ja video
Toisin kuin V3 (vain teksti), V4 on natiivisti multimodaalinen. Kuten Financial Times raportoi, V4 integroi tekstin, kuvan ja videon generoinnin esikoulutusvaiheessa sen sijaan, että näkökyky lisättäisiin erillisenä moduulina.
Tämä on merkittävää, koska:
- Ristikkäismodaalinen päättely on yhtenäisempää — malli ymmärtää tekstikuvausten ja visuaalisen sisällön väliset suhteet natiivisti.
- Kuvan ja videon ymmärtäminen — V4 voi analysoida näyttökuvia, kaavioita ja videokehyksiä tekstin rinnalla.
- Generointikyvyt — varhaiset raportit viittaavat teksti-kuva- ja teksti-video-generointiin, vaikka laadun arvioinnit ovat vielä alussa.
Kehittäjille, jotka rakentavat sovelluksia visuaalisen sisällön käsittelyyn — asiakirja-analyysi, UI-suunnittelu, videon tiivistäminen — natiivi multimodaalinen tuki poistaa tarpeen erillisille vision API-rajapinnoille.
Käytännön multimodaaliset käyttötapaukset
Natiivi multimodaalinen integraatio avaa useita käytännön työnkulkuja:
- Koodia näyttökuvista: Anna näyttökuva UI-suunnitelmasta ja V4 generoi vastaavan koodin — HTML/CSS, React-komponentit tai SwiftUI-näkymät.
- Kaavioiden ymmärtäminen: Syötä arkkitehtuurikaavioita, vuokaavioita tai tietokantakaavioita, ja V4 selittää suunnittelun, tunnistaa ongelmia tai generoi toteutuskoodia.
- Asiakirjojen käsittely: Poimi rakenteellista dataa skannatuista asiakirjoista, laskuista ja lomakkeista ilman erillistä OCR-prosessia.
- Videon tiivistäminen: Käsittele videokehyksiä tiivistelmien, transkriptioiden tai avainhetkien poimimiseksi.
Sovellusrakentajille, kuten ZBuild, natiivi multimodaalisuus tarkoittaa, että käyttäjät voivat ladata mockuppeja ja näyttökuvia suoraan osana sovelluksen luontiprosessia — tekoäly ymmärtää visuaalisen kontekstin ilman lisätyökaluja.
Avoimen lähdekoodia vaikutus
DeepSeek V4:n Apache 2.0 -lisenssi on kiistatta merkittävämpi kuin sen suorituskykytestien tulokset. Tässä on mitä se mahdollistaa:
Itseisännöinti
Organisaatiot, joilla on tietosuvereniteettivaatimuksia, voivat ajaa V4-mallia omassa infrastruktuurissaan. Ei API-kutsuja, ei dataa talon ulkopuolelle, ei toimittajariippuvuutta. ~37B aktiivista parametria per token tekee siitä ajettavan korkean tason yrityskäyttöön tarkoitetuilla GPU-klustereilla.
Hienosäätö
Avoimet painot mahdollistavat toimialakohtaisen hienosäädön — lääketiede, laki, talous tai mikä tahansa erikoistunut vertikaali. Tämä on mahdotonta OpenAI:n tai Anthropic-yhtiön suljetuilla malleilla.
Tutkimus
Täydelliset arkkitehtuuritiedot ja koulutusmetodologia antavat tutkimusyhteisölle mahdollisuuden rakentaa DeepSeek-innovaatioiden päälle. Engram-muisti, DSA ja Manifold-Constrained Hyper-Connections ovat kaikki tutkittavissa ja kehitettävissä.
Kustannusten hallinta
DeepSeek-yhtiön jo valmiiksi alhaisten API-hintojen lisäksi laajamittainen itseisännöinti voi alentaa token-kohtaisia kustannuksia entisestään. Miljardeja tokeneita kuukaudessa käsitteleville sovelluksille V4:n itseisännöinti voi olla 100x halvempaa kuin suljetut API-hinnat.
DeepSeek V4 vs. V3: Kannattaako päivittää?
Nykyisille DeepSeek V3 -käyttäjille tässä on päivityslaskelma:
| Ominaisuus | V3 | V4 | Päivityksen vaikutus |
|---|---|---|---|
| Konteksti-ikkuna | 128K | 1M | Suuri — mahdollistaa koodikannan laajuisen analyysin |
| SWE-bench | 69% | 81% | Suuri — 12 pisteen parannus |
| Multimodaalisuus | Vain teksti | Teksti + Kuva + Video | Keskitaso — riippuu käyttötapauksesta |
| Engram-muisti | Ei | Kyllä | Suuri — huomattavasti parempi tiedonhaku |
| API-hinta | $0.27/M input | $0.30/M input | Pieni — minimaalinen kustannusten nousu |
| Arkkitehtuuri | MoE | MoE + Engram + DSA | Suuri — perustavanlaatuisesti parempi |
Tuomio: Päivitä. Kustannusten nousu on merkityksetön, ja kyvykkyyden parannukset — erityisesti Engram-muisti ja miljoonan tokenin konteksti — ovat huomattavia. Ainoa syy pysyä V3-versiossa on, jos sinulla on tuotantotyökuormia, jotka vaativat nykyisen mallisi tarkkaa käytöksen johdonmukaisuutta.
Miten DeepSeek V4 sopii kehittäjäekosysteemiin
Indie-kehittäjille ja startupeille
V4:n hinnoittelu tuo frontier-luokan tekoälyn startup-budjettien ulottuville. Yhdistettynä Apache 2.0 -lisenssiin voit rakentaa ja ottaa käyttöön tuotantosovelluksia murehtimatta API-kustannusten skaalautumisesta. Työkalut kuten ZBuild, jotka integroivat useita mallintarjoajia, antavat sinun hyödyntää DeepSeek V4:n kustannusetua säilyttäen samalla mahdollisuuden ohjata tiettyjä tehtäviä muille malleille tarvittaessa.
Yritystiimeille
Itseisännöintimahdollisuus vastaa samanaikaisesti tietosuvereniteettiin, vaatimustenmukaisuuteen ja kustannuksiin liittyviin huoliin. Hienosäätökyky tarkoittaa, että voit rakentaa toimialakohtaisia malleja, jotka suoriutuvat yleiskäyttöisiä vaihtoehtoja paremmin omalla erikoisalallasi.
Tutkijoille
Avoin arkkitehtuuri on kultakaivos. Engram-muisti itsessään avaa useita tutkimussuuntia — ehdolliset muistiarkkitehtuurit, harvuuden jakautumisen optimointi ja hybridi tiedonhaku-laskentajärjestelmät.
Tekoälyalalle
V4 painostaa jokaista frontier-mallien tarjoajaa perustelemaan hinnoittelunsa. Kun avoimen lähdekoodin malli vastaa tai ylittää suljettujen mallien suorituskyvyn 10x halvemmalla, suljettujen mallien arvolupaus siirtyy "paremmasta suorituskyvystä" kohti "parempaa integraatiota, tukea ja luotettavuutta".
Riskit ja epävarmuustekijät
Vertailutulosten vahvistus
81% SWE-bench-väite vaatii riippumattoman vahvistuksen. DeepSeek on ollut luotettava V3-vertailujen kanssa, mutta biljoonan parametrin malleja on vaikeampi arvioida johdonmukaisesti. Odota Artificial Analysis ja LMSYS tuloksia ennen infrastruktuuripäätösten tekemistä tarkkojen lukujen perusteella.
Geopoliittinen riski
DeepSeek on kiinalainen yritys, ja USA:n ja Kiinan väliset teknologiajännitteet jatkuvat. Vientirajoitukset, API-pääsyn rajoitukset tai poliittinen paine voivat vaikuttaa saatavuuteen länsimaisille kehittäjille. Itseisännöinti avoimilla painoilla lieventää, mutta ei poista tätä riskiä.
Multimodaalisuuden laatu
Multimodaaliset kyvyt ovat V4:n vähiten testattu osa. Kuvan ja videon ymmärtämisen laatu vaatii todellista validointia sisäisten vertailujen ulkopuolella.
Tuki ja luotettavuus
Avoin lähdekoodi tarkoittaa yhteisön tukea, ei yritystason SLA-sopimuksia. Jos tuotantosovelluksesi riippuu V4-mallista, vastaat itse käytettävyydestä, skaalautuvuudesta ja virheenkorjauksesta. DeepSeek API-palvelu on ollut luotettava, mutta se ei tarjoa OpenAI:n tai Anthropic-yhtiön kaltaista yritystuen infrastruktuuria.
Yhteenveto
DeepSeek V4 on tärkein vuonna 2026 tähän mennessä julkaistu avoimen lähdekoodin tekoälymalli. Sen yhdistelmä biljoonan parametrin skaalaa, Engram-muisti-innovaatiota, miljoonan tokenin kontekstia, natiiveja multimodaalisia kykyjä ja aggressiivisen alhaista hinnoittelua Apache 2.0 -lisenssillä tekee siitä todellisen vaihtoehdon suljetuille frontier-malleille.
Varoitukset ovat todellisia — vertailutulosten vahvistus on kesken, geopoliittisia riskejä on olemassa ja yritystuki on rajallista. Mutta kehittäjille ja organisaatioille, jotka ovat valmiita navigoimaan näiden epävarmuustekijöiden keskellä, V4 tarjoaa frontier-luokan kyvykkyyksiä murto-osalla kustannuksista.
Käytitpä sitä DeepSeek API-rajapinnan kautta, isännöitpä sitä itse omassa infrastruktuurissasi tai käytitpä sitä alustojen kuten ZBuild kautta, DeepSeek V4 ansaitsee paikan tekoälytyökalupakissasi.
Usein kysytyt kysymykset
Voinko itseisännöidä DeepSeek V4 -mallia kuluttajatason laitteistolla?
Et käytännössä. Vaikka malli aktivoi vain ~37B parametria per token, koko 1T parametrin MoE-mallin isännöinti vaatii merkittävästi GPU-muistia eksperttien reititystaulukoita varten. Tarvitset yritystason GPU-klustereita (useita A100- tai H100-ohjaimia). Useimmille kehittäjille DeepSeek API hintaan $0.30/M input tokens on huomattavasti kustannustehokkaampi kuin itseisännöinti, ellet käsittele miljardeja tokeneita kuukausittain.
Miten V4 Lite eroaa täydestä V4-mallista?
DeepSeek V4 Lite ilmestyi DeepSeek-verkkosivustolle 9. maaliskuuta 2026, mutta virallisia teknisiä tietoja ei ole julkaistu. DeepSeek-yhtiön V3-nimeämiskäytäntöjen perusteella "Lite" viittaa todennäköisesti tislattuun tai pienempään varianttiin, joka on optimoitu nopeuden ja kustannusten mukaan kyvykkyyden kustannuksella. Sen odotetaan olevan nopeampi ja halvempi, mutta suoriutuvan heikommin monimutkaisista päättelytehtävistä.
Onko DeepSeek V4 sensuroitu tiettyjen aiheiden osalta?
Kuten kaikki kiinalaiset tekoälymallit, DeepSeek V4 sisältää sisällönsuodatusta poliittisesti herkille aiheille, erityisesti niille, jotka liittyvät Kiinan politiikkaan ja hallintoon. Yleisessä kehityksessä, koodauksessa ja teknisissä käyttötapauksissa suodatuksella on minimaalinen vaikutus. Sovelluksissa, joihin liittyy herkkää poliittista sisältöä tai rajoittamatonta generointia, tämä on varteenotettava huomio.
Mitä ohjelmointikieliä V4 hallitsee parhaiten?
SWE-bench-tulosten perusteella (jotka testaavat pääasiassa Pythonia, JavaScriptia ja Javaa) V4 loistaa valtavirtakielissä. Yhteisön raportit viittaavat vahvaan suorituskykyyn Pythonin, JavaScript/TypeScriptin, Javan, Gon, Rustin ja C++:n osalta. Harvinaisemmilla kielillä, kuten Haskell, Elixir tai Zig, on todennäköisesti heikompi tuki koulutusdatan jakautumisen vuoksi.
Miten DeepSeek V4 vertautuu Llama 4 -malliin itseisännöinnissä?
Molemmat ovat avointa lähdekoodia ja saatavilla sallivilla lisensseillä. DeepSeek V4:n MoE-arkkitehtuuri ~37B aktiivisella parametrilla per token tarjoaa paremman suorituskyvyn per laskenta kuin tiheät mallit. Llama 4:n etu on Meta-yhtiön suurempi ekosysteemi ja yhteisön tuki. Puhtaassa kyvykkyydessä per dollari V4 todennäköisesti voittaa. Yhteisön työkalujen ja hienosäätöekosysteemin osalta Llama voi olla helpommin lähestyttävä.
Lähteet
- DeepSeek V4: Engram Architecture Revealed
- DeepSeek V4: What's Next — Architecture, DSA, Engram & More
- Introl: DeepSeek V4's 1-Trillion Parameter Architecture
- ByteIota: DeepSeek V4 Targets 80.9% SWE-Bench Record
- CyberNews: DeepSeek V4 Review
- Evolink: DeepSeek V4 Release Date
- PromptZone: DeepSeek V4 Status Report March 2026
- VERTU: DeepSeek V4 Engram Architecture
- Kili Technology: DeepSeek V4 Guide
- Evermx: DeepSeek V4 Multimodal Launch
- RecodeChina: DeepSeek's Next Move
- DeepSeek V4 Status and Leaks