Keskeinen havainto
Vuoden 2026 avoimen lähdekoodin AI-mallien kenttä on kolmen suunnan kilpailu Google Gemma 4:n, Meta Llama 4:n ja Alibaba Qwen 3.5:n välillä. Jokainen perhe hallitsee eri ulottuvuuksia: Gemma 4 voittaa tehokkuudessa ja lisensoinnissa, Llama 4 voittaa raa’assa mittakaavassa ja kontekstin pituudessa, ja Qwen 3.5 voittaa monikielisessä laajudessa ja mallien monipuolisuudessa. "Paras" malli riippuu täysin käyttöönoton rajoitteista, kohdemarkkinoista ja laitteistobudjetista.
Gemma 4 vs Llama 4 vs Qwen 3.5: Täydellinen vertailu
Kilpailijat yhdellä silmäyksellä
Ennen yksityiskohtiin syventymistä, tässä on yleiskuva kentästä:
| Gemma 4 | Llama 4 | Qwen 3.5 | |
|---|---|---|---|
| Kehittäjä | Google DeepMind | Meta | Alibaba Cloud |
| Julkaistu | April 2, 2026 | April 2025 (Scout/Maverick) | Q1 2026 |
| Lisenssi | Apache 2.0 | Meta Custom License | Apache 2.0 (useimmat mallit) |
| Mallikoot | E2B, E4B, 26B MoE, 31B Dense | Scout 109B, Maverick 400B | Useita (0.6B - 397B) |
| Maksimikonteksti | 256K | 10M (Scout) | 128K |
| Multimodaalisuus | Teksti, kuva, video, audio | Teksti, kuva | Teksti, kuva |
| Ajattelutila | Kyllä (määritettävissä) | Ei | Kyllä (hybridi) |
Lähde: Mallien ilmoitukset yrityksiltä Google, Meta ja Alibaba
Mallikoot ja arkkitehtuuri
Gemma 4: Neljä kokoa, kaksi arkkitehtuuria
Gemma 4 tarjoaa erottuvimman valikoiman:
| Malli | Parametrien kokonaismäärä | Aktiiviset parametrit | Arkkitehtuuri |
|---|---|---|---|
| E2B | 2.3B | 2.3B | Dense |
| E4B | 4.5B | 4.5B | Dense |
| 26B MoE | 26B | 3.8B | Mixture of Experts |
| 31B Dense | 31B | 31B | Dense |
26B MoE on joukon tähti — se tarjoaa lähes lippulaivatasoista laatua aktivoiden vain 3.8B parametria per token. Tämä tarkoittaa, että se toimii suurin piirtein samalla nopeudella ja muistikustannuksella kuin E4B-malli, mutta käyttää 26B parametrin tietomäärää. Arena AI -alustalla se saa pisteet 1441 ja sijoittuu 6. sijalle avoimien mallien joukossa tästä minimaalisesta laskentajalanjäljestä huolimatta.
Llama 4: Kaksi massiivista mallia
Meta Llama 4 valitsee päinvastaisen lähestymistavan — vähemmän malleja, paljon suuremmassa koossa:
| Malli | Parametrien kokonaismäärä | Aktiiviset parametrit | Arkkitehtuuri |
|---|---|---|---|
| Scout | 109B | ~17B | Mixture of Experts (16 experts) |
| Maverick | 400B | ~17B | Mixture of Experts (128 experts) |
Molemmat Llama 4 -mallit käyttävät MoE-arkkitehtuuria. Scout aktivoi noin 17B parametria per token 109B parametrin joukosta. Maverick aktivoi vastaavan määrän 400B kokonaisparametrimäärästä käyttäen 128 asiantuntijaa suuremman tietokapasiteetin saavuttamiseksi. Keskeinen vaihtokauppa: jopa MoE-tehokkuudella nämä mallit vaativat merkittävästi enemmän muistia koko parametriston säilyttämiseen.
Llama 4 Scoutin määrittelevä ominaisuus on sen 10 miljoonan tokenin konteksti-ikkuna — pisin mistään merkittävästä avoimesta mallista. Tämä mahdollistaa kokonaisten koodikantojen, pitkien videoiden tekstitysten tai massiivisten asiakirjakokoelmien käsittelyn yhdellä kehotteella.
Qwen 3.5: Laajin valikoima
Alibaba Qwen 3.5 -perhe tarjoaa eniten eri mallikokoja:
| Malli | Parametrit | Arkkitehtuuri |
|---|---|---|
| Qwen 3.5 0.6B | 0.6B | Dense |
| Qwen 3.5 1.7B | 1.7B | Dense |
| Qwen 3.5 4B | 4B | Dense |
| Qwen 3.5 8B | 8B | Dense |
| Qwen 3.5 14B | 14B | Dense |
| Qwen 3.5 32B | 32B | Dense |
| Qwen 3.5 72B | 72B | Dense |
| Qwen 3.5 MoE (A22B) | 397B | Mixture of Experts |
Qwen 3.5 täyttää jokaisen parametrinišin. 0.6B-malli toimii käytännössä millä tahansa laitteella. 397B MoE vastaa Llama 4 Maverickia kokonaisparametrimäärässä. Tämä laajuus tarkoittaa, että aina löytyy Qwen-malli, joka sopii tarkalleen laitteistorajoitteisiisi.
Qwen 3.5 tarjoaa myös hybridin ajattelutilan, jonka avulla käyttäjät voivat vaihtaa nopeiden vastausten ja syvemmän päättelyn välillä saman mallin sisällä — samalla tavalla kuin Gemma 4:n määritettävissä oleva ajattelutila.
Vertailuarvojen vertailu
Päättely ja tieto
| Benchmark | Gemma 4 31B | Llama 4 Maverick | Qwen 3.5 72B | Qwen 3.5 MoE |
|---|---|---|---|---|
| MMLU Pro | 85.2% | 79.6% | 81.4% | 83.1% |
| AIME 2026 | 89.2% | — | 79.8% | 85.6% |
| BigBench Extra Hard | 74% | — | 62% | 68% |
| Arena AI Score | 1452 (3rd) | 1417 | 1438 | 1449 |
Lähteet: Arena AI, vastaavat tekniset raportit
Gemma 4 31B johtaa päättelyvertailuissa, mikä on huomionarvoista, ottaen huomioon sen olevan vertailun pienin lippulaivamalli (31B vs 400B vs 72B/397B). Ajattelutilalla on tässä suuri rooli — Gemma 4 ajattelutila päällä loistaa tehtävissä, jotka hyötyvät vaiheittaisesta päättelystä.
Tehokkuuteen suhteutettu suorituskyky
Raa’at vertailuarvot eivät kerro koko totuutta. Kun otetaan huomioon aktiiviset parametrit — laskentakustannus per token — tilanne muuttuu:
| Malli | Arena AI Score | Aktiiviset parametrit | Pisteet per aktiivinen miljardi |
|---|---|---|---|
| Gemma 4 26B MoE | 1441 | 3.8B | 379 |
| Gemma 4 31B | 1452 | 31B | 47 |
| Llama 4 Maverick | 1417 | ~17B | 83 |
| Llama 4 Scout | ~1400 | ~17B | 82 |
| Qwen 3.5 72B | 1438 | 72B | 20 |
| Qwen 3.5 MoE | 1449 | ~22B | 66 |
Gemma 4:n 26B MoE hallitsee tehokkuudessa. Se saavuttaa Arena AI -pisteet 1441 aktivoiden vain 3.8B parametria — pisteiden suhde aktiivisiin parametreihin on 4-5 kertaa parempi kuin kilpailijoilla. Käyttöönottoskenaarioissa, joissa päättelykustannuksilla on merkitystä (kuten useimmissa tuotantoympäristöissä), tämä tehokkuusetu kääntyy suoraan kustannussäästöiksi.
Koodaussuorituskyky
| Benchmark | Gemma 4 31B | Llama 4 Maverick | Qwen 3.5 72B |
|---|---|---|---|
| HumanEval+ | 82.3% | 85.1% | 83.7% |
| LiveCodeBench | 46.8% | 51.2% | 49.5% |
| MultiPL-E (Python) | 79.4% | 83.6% | 81.2% |
Llama 4 Maverick on hieman edellä koodausvertailuissa absoluuttisesti mitattuna, mikä on odotettavaa sen 400B parametrin edun vuoksi. Kuitenkin Gemma 4:n rakenteellinen työkalujen käyttökyky ja ajattelutila tekevät siitä käytännöllisemmän agenttipohjaisiin koodausprosesseihin, joissa mallin on suunniteltava, suoritettava ja iteroitava pelkän koodin tuottamisen sijaan.
Lisensointi: Piilotettu ratkaiseva tekijä
Kaupallisessa käyttöönotossa lisensointi voi olla vertailuarvoja tärkeämpää:
Gemma 4: Apache 2.0
- Ei käyttörajoituksia — käytä mihin tahansa tarkoitukseen
- Ei käyttäjäkynnyksiä — ei rajoituksia yrityksen koon perusteella
- Täydet muokkausoikeudet — muuta ja jakele vapaasti
- Standardi oikeudellinen tarkastus — Apache 2.0 on juridisille tiimeille selkeä maailmanlaajuisesti
Llama 4: Meta Custom License
- Ilmainen useimmille kaupallisille käytöille — mutta tietyin ehdoin
- 700M MAU rajoitus — yritysten, joiden kuukausittaiset aktiiviset käyttäjät ylittävät 700 miljoonaa, on pyydettävä erillinen lisenssi yritykseltä Meta
- Hyväksyttävän käytön käytäntö — tietyt käyttötapaukset on kielletty
- Mukautettu lisenssi — vaatii oikeudellisen tarkastuksen säädöstenmukaisuuden arvioimiseksi
Qwen 3.5: Apache 2.0 (useimmat mallit)
- Apache 2.0 useimmille kooille — sama vapaus kuin Gemma 4:ssä
- Joillakin suuremmilla malleilla voi olla eri ehdot — tarkista mallikohtaisesti
- Standardi oikeudellinen tarkastus — Apache 2.0 on hyvin ymmärretty
Startupeille ja suuryrityksille lisensointiero on todellinen. Apache 2.0 (Gemma 4 ja useimmat Qwen 3.5 -mallit) ei vaadi erityistä oikeudellista tarkastusta standardin avoimen lähdekoodin noudattamisen lisäksi. Meta mukautettu lisenssi vaatii tarkastusta 700M MAU -kynnyksen ja sallitun käytön periaatteiden osalta. Käytännössä 700M MAU -kynnys koskee vain kourallista yrityksiä maailmanlaajuisesti, mutta mukautettu lisenssi lisää kitkaa yrityksen koosta riippumatta.
Multimodaaliset ominaisuudet
| Ominaisuus | Gemma 4 | Llama 4 | Qwen 3.5 |
|---|---|---|---|
| Teksti | Kaikki mallit | Kaikki mallit | Kaikki mallit |
| Kuvat | Kaikki mallit | Kaikki mallit | Useimmat mallit |
| Video | Vain E2B, E4B | Ei | Ei |
| Audio | Vain E2B, E4B | Ei | Ei |
| Ajattelutila | Kyllä (määritettävissä) | Ei | Kyllä (hybridi) |
Gemma 4 tarjoaa laajimman multimodaalisen tuen. Se, että video- ja audio-ominaisuudet ovat saatavilla pienimmissä malleissa (E2B ja E4B) suurimpien sijaan, on huomattava suunnitteluratkaisu, joka mahdollistaa laitteessa toimivan multimodaalisen AI:n.
Llama 4 tukee tekstin ja kuvien käsittelyä molemmissa malleissa, mutta siitä puuttuu natiivi video- ja audiotuki. Qwen 3.5 tarjoaa vastaavat teksti- ja kuvaominaisuudet ilman natiivia videon tai audion käsittelyä.
Konteksti-ikkunat
| Malli | Konteksti-ikkuna |
|---|---|
| Llama 4 Scout | 10,000,000 tokenia |
| Gemma 4 31B/26B MoE | 256,000 tokenia |
| Gemma 4 E2B/E4B | 128,000 tokenia |
| Qwen 3.5 (useimmat mallit) | 128,000 tokenia |
| Llama 4 Maverick | 1,000,000 tokenia |
Llama 4 Scoutin 10M tokenin konteksti-ikkuna on omaa luokkaansa. Tämä on noin 40 kertaa suurempi kuin Gemma 4:n maksimi ja mahdollistaa käyttötapaukset, joihin mikään muu avoin malli ei pysty:
- Kokonaisten suurten koodikantojen (miljoonia rivejä) käsittely yhdellä kehotteella
- Vuosien keskusteluhistorian analysointi asiakaspalvelusovelluksissa
- Kokonaisten kirjojen tai tutkimuspaperikokoelmien lukeminen
Kuitenkin 10M konteksti-ikkunan hyödyntäminen vaatii suhteessa laitteistoa. KV cache -muistin tarve 10M tokenille on huomattava, mikä tekee tästä ominaisuudesta käytännöllisen vain palvelintason laitteistolla.
Useimpiin sovelluksiin Gemma 4:n 256K ja Qwen 3.5:n 128K konteksti-ikkunat ovat enemmän kuin riittäviä. 256K konteksti-ikkunaan mahtuu noin 750-1000 sivua tekstiä tai yli 50,000 riviä koodia.
Laitteistovaatimukset
Paikallinen käyttö
| Malli | RAM (4-bit) | RAM (FP16) | Kuluttajakäyttöön soveltuva? |
|---|---|---|---|
| Gemma 4 E2B | ~5 GB | ~5 GB | Kyllä (kannettava/puhelin) |
| Gemma 4 E4B | ~5 GB | ~9 GB | Kyllä (kannettava) |
| Gemma 4 26B MoE | ~18 GB | ~52 GB | Kyllä (RTX 4090) |
| Gemma 4 31B | ~20 GB | ~62 GB | Kyllä (RTX 4090) |
| Qwen 3.5 8B | ~6 GB | ~16 GB | Kyllä (kannettava) |
| Qwen 3.5 32B | ~20 GB | ~64 GB | Kyllä (RTX 4090) |
| Qwen 3.5 72B | ~42 GB | ~144 GB | Ei (palvelin-GPU) |
| Llama 4 Scout | ~70 GB | ~218 GB | Ei (monen GPU:n palvelin) |
| Llama 4 Maverick | ~250 GB | ~800 GB | Ei (GPU-klusteri) |
Kehittäjille, jotka haluavat ajaa malleja paikallisesti — kannettavalla tietokoneella yksityisyyden vuoksi tai yhdellä GPU:lla kustannusten vuoksi — Gemma 4 ja pienet Qwen 3.5 -mallit ovat ainoat käytännölliset vaihtoehdot. Gemma 4 E2B ja E4B toimivat käytännössä millä tahansa nykyaikaisella tietokoneella. 26B MoE ja 31B Dense mahtuvat yhdelle RTX 4090- tai RTX 5090 -kortille.
Llama 4 -mallit ovat perimmiltään palvelintasoa. Jopa voimakkaalla kvantisoinnilla Scout vaatii usean GPU:n kokoonpanoja ja Maverick vaatii GPU-klusterin. Tämä rajoittaa Llama 4:n organisaatioihin, joilla on pilvilaskentabudjettia tai dedikoitua GPU-infrastruktuuria.
Monikielinen tuki
| Gemma 4 | Llama 4 | Qwen 3.5 | |
|---|---|---|---|
| Tuetut kielet | 35+ | 12 | 29+ |
| Esikoulutuskielet | 140+ | — | 100+ |
| CJK-laatu | Hyvä | Tyydyttävä | Erinomainen |
| Arabia/Heprea | Hyvä | Tyydyttävä | Hyvä |
| Vähäresurssiset kielet | Kohtalainen | Rajoitettu | Kohtalainen |
Qwen 3.5 on vahvin valinta sovelluksiin, jotka suuntautuvat Aasian markkinoille, erityisesti kiinan, japanin ja korean kieliin. Alibaba koulutusdata sisältää laajasti korkealaatuista CJK-tekstiä, mikä antaa Qwen-malleille mitattavan edun näissä kielissä.
Gemma 4 tarjoaa laajimman virallisen kielituen 35+ kielellä ja esikoulutuksen 140+ kielellä. Tämä takaa kohtuullisen laadun laajalla kielivalikoimalla, tehden siitä monipuolisimman valinnan maailmanlaajuisiin sovelluksiin.
Llama 4:n 12 kielen tuki on rajoitetuin. Vaikka se kattaa eniten käytetyt maailmankielet, se jättää merkittäviä aukkoja sovelluksille, jotka suuntautuvat pienemmille kielimarkkinoille.
Käyttötapaus-suositukset
Valitse Gemma 4, kun:
- Tarvitset maksimaalista tehokkuutta — 26B MoE tarjoaa lippulaivalaatua 3.8B aktiivisella parametrilla
- Lisensoinnilla on merkitystä — Apache 2.0 ilman rajoituksia on yksinkertaisin polku kaupalliseen käyttöön
- Tarvitset multimodaalista reuna-AI:ta — E2B/E4B video- ja audiotuella toimivat kuluttajalaitteilla
- Haluat määritettävän ajattelun — Vaihda nopean ja syvän päättelyn välillä per pyyntö
- Rakennat agenttipohjaisia työnkulkuja — Rakenteellinen työkalujen käyttö on sisäänrakennettu
Valitse Llama 4, kun:
- Tarvitset maksimaalista kontekstia — 10M tokenia Scout-mallissa on vertaansa vailla
- Raa’at vertailuarvot ovat tärkeimpiä — Maverickin 400B parametria antavat sille edun joissakin testeissä
- Sinulla on palvelintason laitteisto — Pilvikäyttöönotot, joissa GPU-kustannukset ovat hallittavissa
- Olet Meta-ekosysteemissä — Integraatio Meta AI-infrastruktuuriin
- Et ylitä 700M MAU -kynnystä — Mikä koskee 99.99 % yrityksistä
Valitse Qwen 3.5, kun:
- Kohdistat Aasian markkinoille — Paras CJK-kielilaatu avoimien mallien joukossa
- Tarvitset tietyn mallikoon — 8 kokoa välillä 0.6B - 397B täyttävät jokaisen tarpeen
- Haluat hybridin ajattelun — Vastaava kuin Gemma 4:n määritettävissä oleva ajattelutila
- Tarvitset koodauskohtaisia malleja — Qwen Code -variantit on optimoitu ohjelmointiin
- Tarvitset Apache 2.0:n useammilla kokovaihtoehdoilla — Useimmat mallit käyttävät Apache 2.0 -lisenssiä
Sovellusten rakentaminen avoimilla malleilla
Riippumatta siitä, minkä mallin valitset, avoimen mallin käyttöönotto tuotannossa vaatii sovelluskerroksen rakentamista sen ympärille — API-päätepisteet, käyttöliittymät, autentikointi, tietokantatallennus keskusteluille ja käyttöönottovaltuudet.
AI-pohjaisia tuotteita rakentaville tiimeille malli on vain yksi osa. Alustat kuten ZBuild hoitavat sovelluksen rungon — frontendin, backendin, tietokannan ja käyttöönoton — jotta voit keskittyä insinöörityössäsi mallin integrointiin, prompt-suunnitteluun ja käyttökokemukseen, jotka erottavat tuotteesi muista.
Mallien vertailu on tärkeintä integraatiokerroksessa. Hyvin rakennettu sovellus voi vaihtaa mallia välillä Gemma 4, Llama 4 tai Qwen 3.5 tehtävästä riippuen — käyttäen Gemma 4 MoE -mallia tehokkuutta vaativiin pyyntöihin, Llama 4 Scoutia pitkiin konteksteihin ja Qwen 3.5 -mallia CJK-painotteiseen sisältöön.
Hienosäätö ja muokkaus
Kaikki kolme malliperhettä tukevat hienosäätöä, mutta käytännön kokemus eroaa:
Gemma 4
- LoRA ja QLoRA tuettu kaikissa kooissa
- Apache 2.0 tarkoittaa, ettei hienosäädettyjen painojen jakelulle ole rajoituksia
- Google Colab -muistikirjat saatavilla hienosäädön aloittamiseen ilmaisilla GPU:illa
- Keras-integraatio KerasNLP:n kautta korkean tason hienosäätöprosesseihin
- E2B ja E4B hienosäätyvät yhdellä kuluttaja-GPU:lla tunneissa
Llama 4
- LoRA ja QLoRA tuettu Hugging Face transformers -kirjaston kautta
- Meta mukautettu lisenssi koskee myös hienosäädettyjä johdannaisia — 700M MAU -rajoitus säilyy
- Suuret mallikoot tarkoittavat, että Scoutin (109B) tai Maverickin (400B) hienosäätö vaatii usean GPU:n kokoonpanoja
- Torchtune yritykseltä Meta tarjoaa virallisia hienosäätöreseptejä
Qwen 3.5
- LoRA, QLoRA ja täysi hienosäätö tuettu kattavalla dokumentaatiolla
- Apache 2.0 useimmille malleille tarkoittaa rajoittamatonta hienosäädettyjen painojen jakelua
- Laaja kokovalikoima tarkoittaa, että voit hienosäätää 4B-mallin kannettavalla tai 72B-mallin palvelimella
- Vahva kiinan/CJK-hienosäätödata saatavilla Alibaba-ekosysteemin kautta
Useimmissa hienosäätöskenaarioissa Gemma 4 E4B tai 26B MoE tarjoaa parhaan lähtökohdan. Mallit ovat tarpeeksi pieniä hienosäädettäväksi kuluttajalaitteilla, tarpeeksi kykeneviä tuottamaan korkealaatuisia tuloksia ja lisensoitu riittävän vapaasti, jotta hienosäädetty malli voidaan ottaa käyttöön missä tahansa.
Konvergenssitrendi
Kun dataa katsotaan kokonaisvaltaisesti, silmiinpistävin havainto on se, kuinka nopeasti avoimen lähdekoodin mallit lähestyvät kaupallisten mallien suorituskykyä. Gemma 4 31B:n MMLU Pro -tulos 85.2% on iskuetäisyydellä malleista Claude Sonnet 4.6 ja GPT-5.4 — ilman päättelykustannuksia laitteiston lisäksi.
Erottautuminen avoimien malliperheiden välillä on siirtymässä kysymyksestä "mikä niistä on älykkäin" kysymykseen "mikä niistä sopii käyttöönoton rajoitteisiin". Laitteistovaatimukset, lisenssiehdot, multimodaaliset ominaisuudet ja kielituki merkitsevät nyt yhtä paljon kuin raa’at vertailupisteet.
Useimmille kehittäjille ja yrityksille vuonna 2026 kysymys ei ole enää "pitäisikö minun käyttää avointa mallia?", vaan "mikä avoin malli sopii omiin tarpeisiini?" — ja se on merkki tämän ekosysteemin kypsymisestä.
Tuomio
Vuonna 2026 ei ole yhtä ainoaa "parasta" avoimen lähdekoodin mallia. Oikea valinta riippuu erityisvaatimuksistasi:
- Paras yleinen tehokkuus: Gemma 4 26B MoE — 3.8B aktiivista parametria, Arena AI -sija 6., Apache 2.0
- Paras raaka laatu (avoin malli): Gemma 4 31B Dense — 85.2% MMLU Pro, Arena AI -sija 3.
- Paras pitkille asiakirjoille: Llama 4 Scout — 10M tokenin konteksti-ikkuna
- Paras aasialaisille kielille: Qwen 3.5 — ylivoimainen CJK-suorituskyky
- Paras kuluttajalaitteille: Gemma 4 E2B — 5GB RAM, toimii puhelimissa
- Sallivin lisenssi: Gemma 4 ja Qwen 3.5 (Apache 2.0)
- Eniten kokovaihtoehtoja: Qwen 3.5 — 8 kokoa välillä 0.6B - 397B
Jos joutuisit valitsemaan vain yhden perheen ja painotat tehokkuutta, lisensointia ja multimodaalisia ominaisuuksia, Gemma 4 on vahvin yleisvalinta huhtikuussa 2026.
Lähteet
- Introducing Gemma 4 - Google Blog
- Gemma 4 Technical Report - Google DeepMind
- Llama 4 Announcement - Meta AI
- Llama 4 License
- Qwen 3.5 - Alibaba Cloud / Qwen Team
- Qwen 3.5 Technical Report
- Arena AI Open Model Rankings
- Gemma 4 on Ollama
- Open Source LLM Comparison 2026 - Artificial Analysis
- Gemma 4 vs Llama 4 Analysis - The Decoder
- Open Model Benchmark Aggregator - Hugging Face