Keskeinen havainto
Google Gemma 4 on kyvykkäin avoimen painon (open-weight) malliperhe, joka on koskaan julkaistu todella sallivalla lisenssillä. 31B Dense -malli saavuttaa 85.2% MMLU Pro -testissä ja sijoittuu 3. sijalle kaikkien avointen mallien joukossa Arena AI -alustalla — kun taas 26B MoE saavuttaa lähes identtisen laadun vain 3.8B aktiivisella parametrilla. Ensimmäistä kertaa Gemma julkaistaan Apache 2.0 -lisenssillä, mikä poistaa kaikki lisenssikitkat, jotka rajoittivat aiempien sukupolvien kaupallista käyttöönottoa.
Google Gemma 4: Kaikki mitä sinun tarvitsee tietää
Julkaisun yleiskatsaus
Google DeepMind julkaisi Gemma 4:n April 2, 2026, esitellen neljä mallikokoa, jotka on rakennettu samalle teknologiselle perustalle kuin Gemini 3. Tämä sukupolvi edustaa suurinta harppausta Gemma-perheessä kaikilla osa-alueilla: mallin laadussa, multimodaalisissa kyvyissä, kontekstin pituudessa ja lisenssiehdoissa.
Keskeiset muutokset Gemma 3:een verrattuna:
- Apache 2.0 -lisenssi — ei käyttörajoituksia, ei mukautettua lisenssiä, täysi kaupallinen vapaus
- Neljä mallikokoa kolmen sijasta, mukaan lukien uusi MoE-arkkitehtuuri
- Natiivi multimodaalinen tuki kaikissa koissa (teksti, kuvat, video, audio)
- Konfiguroitava ajattelutila yli 4,000 tokenin päättelyketjuilla
- 256K konteksti-ikkunat suuremmissa malleissa (kasvu Gemma 3:n rajoituksista)
- 35+ tuettua kieltä, esikoulutettu yli 140+ kielellä
- Rakenteellinen työkalujen käyttö agenttisia työnkulkuja varten
Neljä mallikokoa
Gemma 4 toimitetaan neljässä eri koossa, joista jokainen on suunnattu erilaisiin käyttöympäristöihin:
| Malli | Parametrit | Aktiiviset parametrit | Arkkitehtuuri | Konteksti | Modaliteetit |
|---|---|---|---|---|---|
| E2B | 2.3B tehollinen | 2.3B | Dense | 128K | Teksti, kuva, video, audio |
| E4B | 4.5B tehollinen | 4.5B | Dense | 128K | Teksti, kuva, video, audio |
| 26B MoE | 26B yhteensä | 3.8B | Mixture of Experts | 256K | Teksti, kuva |
| 31B Dense | 31B | 31B | Dense | 256K | Teksti, kuva |
E2B ja E4B: Edge-mallit
Pienimmät Gemma 4 -mallit on suunniteltu laitteessa tapahtuvaan käyttöönottoon. 2.3B ja 4.5B tehollisilla parametreilla ne toimivat älypuhelimissa, tableteissa ja kannettavissa tietokoneissa jopa vain 5GB RAM-muistilla käyttämällä 4-bit kvantisointia.
Huomionarvoista näissä malleissa on niiden modaliteettien laajuus. Huolimatta siitä, että ne ovat perheen pienimpiä, E2B ja E4B ovat ainoat Gemma 4 -mallit, jotka tukevat kaikkia neljää syötemuotoa: tekstiä, kuvia, videota ja audiota. Tämä on tietoinen suunnitteluratkaisu — kameroilla ja mikrofoneilla varustetut päätelaitteet hyötyvät eniten multimodaalisista kyvyistä.
Molemmat mallit tukevat 128K tokenin konteksti-ikkunaa, mikä on runsas niiden parametrimäärään nähden ja riittävä useimpiin laitteessa tapahtuviin käyttötapauksiin.
26B MoE: Maksimaalinen tehokkuus
26B Mixture of Experts -malli on kenties Gemma 4 -malliston mielenkiintoisin malli. Se sisältää yhteensä 26B parametria, mutta aktivoi vain 3.8B parametria mille tahansa syötteelle — suunnilleen saman laskentakustannuksen kuin E4B-malli, mutta huomattavasti suuremmalla tietomäärällä ja kyvykkyydellä.
Arena AI -alustalla 26B MoE sijoittuu 6. sijalle kaikkien avointen mallien joukossa pisteillä 1441, vaikka se käyttää vain 3.8B aktiivista parametria. Tämä tehokkuussuhde on ennennäkemätön — mikään muu malli ei saavuta vastaavaa laatua tällä laskentakustannuksella.
MoE-arkkitehtuuri ohjaa jokaisen tokenin erikoistuneiden asiantuntija-aliverkkojen läpi, mikä mahdollistaa mallin suuren tietokapasiteetin säilyttämisen samalla kun inferenssi-kustannukset pysyvät alhaisina. Käyttöympäristöissä, joissa tarvitaan vahvaa päättelykykyä mutta GPU-muisti on rajallinen, 26B MoE on optimaalinen valinta.
31B Dense: Maksimaalinen laatu
31B Dense -malli on Gemma 4:n lippulaiva. Jokainen parametri on aktiivinen jokaiselle tokenille, mikä takaa johdonmukaisimmat ja korkealaatuisimmat tulokset kaikissa tehtävätyypeissä.
Arena AI -alustalla 31B Dense sijoittuu 3. sijalle kaikkien avointen mallien joukossa pisteillä 1452. MMLU Pro -testissä se saavuttaa 85.2% — kilpaillen useita kertoja suurempien mallien kanssa. AIME 2026 -testin 89.2% tulos osoittaa vahvaa matemaattista päättelykykyä, kun taas 74% tulos BigBench Extra Hard -testissä (nousu 19%:sta edellisissä sukupolvissa) näyttää valtavan parannuksen monimutkaisissa päättelytehtävissä.
Suorituskykytestit: Täydelliset tiedot
Päättely ja tietämys
| Benchmark | 31B Dense | 26B MoE | Huomautukset |
|---|---|---|---|
| MMLU Pro | 85.2% | — | Jatkotutkintotason tietämys |
| AIME 2026 | 89.2% | — | Kilpailumatematiikka |
| BigBench Extra Hard | 74% | — | Nousu 19%:sta edellisessä sukupolvessa |
| Arena AI Score | 1452 (3rd) | 1441 (6th) | Avointen mallien sijoitukset |
Lähde: Google DeepMind tekninen raportti
BigBench Extra Hard: Poikkeuksellinen tulos
Hyppy 19%:sta 74%:iin BigBench Extra Hard -testissä ansaitsee erityishuomiota. Tämä testi mittaa monimutkaista monivaiheista päättelyä, loogista deduktiota ja tehtäviä, jotka vaativat aitoa ymmärrystä pelkän hahmon tunnistuksen sijaan. 55 prosenttiyksikön parannus yhdessä sukupolvessa viittaa perustavanlaatuisiin edistysaskeliin Gemma 4:n päättelyarkkitehtuurissa, ei pelkästään skaalaukseen.
Tämä parannus on todennäköisesti yhteydessä konfiguroitavaan ajattelutilaan ja taustalla olevaan Gemini 3 -teknologiaan, jolle Gemma 4 on rakennettu. Ajattelutila tuottaa laajennettuja päättelyketjuja, jotka auttavat mallia ratkaisemaan monimutkaisia ongelmia askel askeleelta.
Arena AI -sijoitusten konteksti
Arena AI sijoittaa mallit perustuen ihmisten tekemiin vertailuihin. 31B Dense -mallin 1452 pistettä ja 3. sija avointen mallien joukossa asettaa sen monien huomattavasti useampia parametreja sisältävien mallien yläpuolelle. Kontekstina:
- Sen yläpuolelle sijoittuvat mallit ovat tyypillisesti 70B+ parametrin malleja
- 26B MoE -mallin saavuttama 1441 pisteen tulos vain 3.8B aktiivisella parametrilla on tehokkuuden läpimurto
- Molemmat mallit suoriutuvat huomattavasti paremmin kuin edellinen Gemma 3 27B
Multimodaaliset kyvyt
Kuvan ymmärtäminen
Kaikki neljä Gemma 4 -mallia käsittelevät kuvia natiivisti. Kykyihin kuuluvat:
- Kuvan kuvaus ja analysointi — visuaalisen sisällön yksityiskohtainen ymmärtäminen
- OCR ja dokumenttien jäsennys — tekstin erottaminen kuvista, kuiteista ja näyttökuvista
- Kaavioiden ja diagrammien tulkinta — datan visualisointien ymmärtäminen
- Visuaalinen päättely — vastaaminen kysymyksiin, jotka vaativat spatiaalisten suhteiden ymmärtämistä
Video ja audio (vain E2B/E4B)
Pienemmät E2B- ja E4B-mallit lisäävät natiivin videon ja audion käsittelyn:
- Videon ymmärtäminen — videosisällön analysointi ilman ruutu kerrallaan tapahtuvaa erottelua
- Audion litterointi ja ymmärtäminen — puheen ja ympäristön äänien käsittely
- Ristimodaalinen päättely — vastaaminen kysymyksiin, jotka kattavat tekstiä, kuvaa, videota ja audiota
Tämä suunnitteluratkaisu heijastaa Googlen keskittymistä edge-käyttöönottoon. Mobiililaitteet tallentavat videota ja audiota natiivisti, joten kyseisille laitteille suunnitellut mallit tukevat näitä modaliteetteja.
Konfiguroitava ajattelutila
Gemma 4 esittelee konfiguroitavan ajattelutilan, joka tuottaa yli 4,000 tokenia sisäistä päättelyä ennen vastauksen muodostamista. Tämä on samanlainen kuin Claude-malleissa ja OpenAI:n o-sarjassa nähty laajennettu ajattelukyky, mutta toteutettuna avoimen painon mallissa.
Miten se toimii
Kun ajattelutila on käytössä, malli:
- Vastaanottaa syötteen
- Tuottaa sisäisen päättelyketjun (näkyvissä tai piilotettuna asetuksista riippuen)
- Käyttää päättelyketjua korkealaatuisemman lopullisen vastauksen tuottamiseen
Ajattelutila voidaan kytkeä päälle pyyntökohtaisesti, mikä mahdollistaa kehittäjille:
- Ajattelun sallimisen monimutkaisissa matematiikka-, logiikka-, koodaus- ja analyysitehtävissä
- Ajattelun poistamisen käytöstä yksinkertaisissa kyselyissä, chateissa ja latenssiherkissä sovelluksissa
- Ajattelun syvyyden säätämisen tehtävän oletetun monimutkaisuuden perusteella
Vaikutus laatuun
Ajattelutila on keskeinen tekijä Gemma 4:n vahvan suorituskyvyn taustalla. AIME 2026 -tulos 89.2% ja BigBench Extra Hard -tulos 74% saavutetaan molemmat ajattelutilan ollessa käytössä. Ilman ajattelutilaa nämä tulokset olisivat huomattavasti alhaisempia — noudattaen samaa kaavaa kuin muissa malleissa, joissa on laajennettu päättelykyky.
Apache 2.0: Miksi lisenssimuutos on tärkeä
Aiemmat Gemma-sukupolvet toimitettiin Googlen mukautetulla Gemma-lisenssillä, joka sisälsi rajoituksia koskien:
- Käyttöä tietyissä sovelluksissa
- Jakeluehtoja
- Kaupallisen käyttöönoton rajoituksia laajamittaisessa käytössä
Gemma 4 siirtyy Apache 2.0 -lisenssiin, joka on sama lisenssi, jota käyttävät projektit kuten Kubernetes, TensorFlow ja Apache HTTP Server. Tämä tarkoittaa:
- Ei käyttörajoituksia — käytä mihin tahansa, mukaan lukien kaupalliset tuotteet
- Ei jakelurajoituksia — jaa muokattuja painoja vapaasti
- Ei muita nimeämisvaatimuksia kuin lisenssin mukaiset — vakio Apache 2.0 -ilmoitus
- Ei tarvetta Googlen hyväksynnälle — ota käyttöön missä tahansa mittakaavassa ilman lupaa
- Yhteensopiva muiden avoimen lähdekoodin lisenssien kanssa — helppo integroida olemassa oleviin projekteihin
Yrityksille ja startupeille, jotka rakentavat tuotteita avointen mallien päälle, tämä poistaa lakiteknisen arvioinnin tarpeen, jota Gemma-mallien aiempi mukautettu lisenssi vaati. Se tekee Gemma 4:stä myös suoraan vertailukelpoisen Metan Llama-malleihin (jotka käyttävät omaa mukautettua lisenssiään tietyillä rajoituksilla) ja asettaa sen kaikkein sallivimmin lisensoiduksi korkealaatuiseksi avoimeksi malliperheeksi.
Kielituki
Gemma 4 tukee yli 35+ kieltä inferenssissä ja on esikoulutettu yli 140+ kielellä. Tämä tekee siitä yhden monikielisimmistä saatavilla olevista avoimista malleista, Qwen-mallien ohella, jotka myös painottavat laajaa kielitukea.
Tuettuihin kieliin kuuluvat suuret maailmankielet (englanti, kiina, espanja, ranska, saksa, japani, korea, arabia, hindi, portugali, venäjä) sekä monia kieliä, joilla on pienempi digitaalinen jalanjälki. Esikoulutus 140+ kielellä tarkoittaa, että mallilla on kyvykkyyttä myös virallisesti tuetun 35+ kielen ulkopuolella, vaikka laatu saattaa vaihdella.
Sovelluksille, jotka on suunnattu globaalille yleisölle tai muille kuin englanninkielisille markkinoille, tämä laajennettu kielituki vähentää tarvetta kielelliseen hienosäätöön tai erillisiin malleihin per kieli.
Rakenteellinen työkalujen käyttö ja agenttiset työnkulut
Gemma 4 sisältää natiivin tuen rakenteelliselle työkalujen käytölle, mikä mahdollistaa agenttiset työnkulut, joissa malli voi:
- Kutsua ulkoisia API-rajapintoja oikein muotoilluilla pyynnöillä
- Jäsentää rakenteellisia vastauksia työkaluilta ja palveluilta
- Ketjuttaa useita työkalukutsuja monimutkaisten tehtävien suorittamiseksi
- Käsitellä virheitä ja uudelleenyrityksiä työkalujen suorituksessa
Tämä kyvykkyys on erityisen merkittävä Android Studio -integraation kannalta, jossa Gemma 4 mahdollistaa paikalliset agenttiset koodaustyönkulut. Malli voi ymmärtää koodikontekstin, ehdottaa muutoksia, suorittaa työkaluja ja iteroida — kaikki tämä paikallisesti kehittäjän koneella ilman koodin lähettämistä ulkoisille palvelimille.
AI-agentteja rakentaville kehittäjille Gemma 4:n rakenteellinen työkalujen käyttö tarjoaa täysin paikallisen ja yksityisen perustan. Yhdistettynä Apache 2.0 -lisenssiin tämä mahdollistaa agenttisten sovellusten rakentamisen ja käyttöönoton ilman riippuvuutta ulkoisista mallintarjoajista.
Laitteistovaatimukset
Paikallinen käyttöönotto Ollama-työkalulla
| Malli | RAM-vaatimus (4-bit) | RAM-vaatimus (FP16) | GPU-suositus |
|---|---|---|---|
| E2B | ~5 GB | ~5 GB | Mikä tahansa moderni GPU / vain CPU |
| E4B | ~5 GB | ~9 GB | Mikä tahansa moderni GPU / vain CPU |
| 26B MoE | ~18 GB | ~52 GB | RTX 4090 / RTX 5090 |
| 31B Dense | ~20 GB | ~62 GB | RTX 4090 / RTX 5090 |
E2B- ja E4B-mallit on suunniteltu erityisesti edge-käyttöönottoon. Ne toimivat sujuvasti kannettavilla tietokoneilla, pöytätietokoneiden prosessoreilla ja jopa joissakin älypuhelimissa. 26B MoE ja 31B Dense -mallit vaativat erillisen GPU-laitteiston, mutta pysyvät yksittäisten kehittäjien ulottuvilla kuluttajatason näytönohjaimilla.
NVIDIA-optimointi
NVIDIA on julkaissut optimoidut versiot Gemma 4:stä RTX GPU -ohjaimille, tarjoten:
- Nopeamman inferenssin GPU-kohtaisten kernel-optimointien avulla
- Pareman muistinkäytön RTX 4000- ja 5000-sarjan korteilla
- TensorRT-integraation tuotantokäyttöön
- CUDA graph -tuen vähentämään ylikuormitusta toistuvassa inferenssissä
Mikä muuttui Gemma 3:een verrattuna
| Ominaisuus | Gemma 3 | Gemma 4 |
|---|---|---|
| Lisenssi | Gemma License (rajoitettu) | Apache 2.0 (rajoittamaton) |
| Mallikoot | 3 kokoa | 4 kokoa (lisätty MoE) |
| Konteksti-ikkuna | Jopa 128K | Jopa 256K |
| Modaliteetit | Teksti, kuva | Teksti, kuva, video, audio |
| Ajattelutila | Ei | Kyllä (konfiguroitava) |
| Työkalujen käyttö | Rajoitettu | Rakenteellinen työkalujen käyttö |
| Kielet | 30+ | 35+ (esikoulutettu 140+) |
| BigBench Extra Hard | 19% | 74% |
Jokainen osa-alue parani. Kehittäjille merkittävimmät muutokset ovat Apache 2.0 -lisenssi (poistaa lakiteknisen kitkan), ajattelutila (parantaa laatua vaikeissa tehtävissä) ja MoE-arkkitehtuuri (tarjoaa lippulaivatason laatua murto-osalla laskentakustannuksista).
Käytännön käyttötapaukset
Koodaus ja kehitys
Gemma 4:n rakenteellinen työkalujen käyttö ja ajattelutila tekevät siitä tehokkaan seuraavissa:
- Paikallinen koodin täydennys ja tuottaminen
- Koodin katselmointi ja virheiden havaitseminen
- Automaattinen testien generointi
- Dokumentaation kirjoittaminen
- Agenttiset koodaustyönkulut Android Studio -ympäristössä
Dokumenttien käsittely
256K konteksti-ikkunan ja multimodaalisen tuen ansiosta:
- Käsittele kokonaisia koodikantoja tai pitkiä dokumentteja yhdellä kehotteella
- Pura tietoa dokumenttien kuvista, kuiteista ja lomakkeista
- Analysoi kaavioita ja datan visualisointeja
- Tiivistä pitkiä tutkimusartikkeleita tai juridisia asiakirjoja
AI-pohjaisten sovellusten rakentaminen
Kehittäjille, jotka rakentavat tekoälyominaisuuksia sisältäviä tuotteita, Gemma 4 tarjoaa vahvan laitteessa tapahtuvan tai itse isännöidyn inferenssikerroksen. Malli hoitaa älykkyyden — kyselyiden ymmärtämisen, vastausten tuottamisen, kuvien käsittelyn — kun taas sovelluskehys hoitaa loput. Työkalut kuten ZBuild voivat nopeuttaa sovelluskuoren rakentamista (frontend, backend, tietokanta, käyttöönotto), jolloin voit keskittyä kehitystyössä AI-integraatiokerrokseen, jossa Gemma 4:n kyvyt ovat merkittävimmillään.
Edge- ja mobiilikäyttöönotto
E2B- ja E4B-mallit avaavat käyttötapauksia, jotka olivat aiemmin mahdottomia avoimilla malleilla:
- Laitteessa toimivat avustajat, jotka toimivat offline-tilassa
- Yksityisyyden säilyttävät AI-ominaisuudet, jotka eivät koskaan lähetä tietoja ulkoisille palvelimille
- Reaaliaikainen videon ja audion käsittely mobiililaitteissa
- Sulautettu tekoäly IoT- ja robotiikkasovelluksissa
Miten pääset alkuun
Ollama (Nopein reitti)
# Asenna Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Lataa ja aja Gemma 4
ollama run gemma4:e2b # Pienin, toimii kaikkialla
ollama run gemma4:e4b # Pieni, laajempi kyvykkyys
ollama run gemma4:26b-moe # MoE, paras tehokkuus
ollama run gemma4:31b # Dense, korkein laatu
Hugging Face
Kaikki Gemma 4 -mallit ovat saatavilla Hugging Face -palvelussa täydellä transformers-integraatiolla:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("google/gemma-4-31b")
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-31b")
Google AI Studio
Google tarjoaa ilmaisen API-pääsyn Gemma 4 -malleihin AI Studio -palvelun kautta kokeilua ja prototyyppien rakentamista varten, ja Vertex AI on käytettävissä tuotantotason käyttöönottoon.
Gemma 4 kilpailukentässä
Ymmärtääksesi missä Gemma 4 sijoittuu laajemmassa ekosysteemissä:
| Malli | Parametrit | Lisenssi | MMLU Pro | Arena AI | Konteksti |
|---|---|---|---|---|---|
| Gemma 4 31B | 31B | Apache 2.0 | 85.2% | 1452 | 256K |
| Gemma 4 26B MoE | 26B (3.8B active) | Apache 2.0 | — | 1441 | 256K |
| Llama 4 Maverick | 400B (~17B active) | Meta License | 79.6% | 1417 | 1M |
| Llama 4 Scout | 109B (~17B active) | Meta License | — | ~1400 | 10M |
| Qwen 3.5 72B | 72B | Apache 2.0 | 81.4% | 1438 | 128K |
| Qwen 3.5 MoE | 397B (~22B active) | Apache 2.0 | 83.1% | 1449 | 128K |
Gemma 4 31B saavuttaa korkeimman MMLU Pro -tuloksen ja Arena AI -sijoituksen avointen mallien joukossa — vähäisimmällä kokonaisparametrilla. Tämä parametritehokkuus on suoraa seurausta Gemini 3 -teknologia-alustasta ja konfiguroitavasta ajattelutilasta.
26B MoE -mallin tehokkuustarina on vieläkin vakuuttavampi. Se sijoittuu 6. sijalle Arena AI -alustalla aktivoiden vain 3.8B parametria per token. Mikään muu malli ei saavuta vastaavaa laatu-laskenta-suhdetta. Tuotantokäytössä, jossa inferenssikustannukset skaalautuvat käytön mukaan, tämä tehokkuus tarkoittaa suoria säästöjä.
Verrattuna suljettuihin malleihin Gemma 4 31B:n suorituskyky on kilpailukykyinen Anthropic:n ja OpenAI:n keskitason mallien kanssa. Vaikka parhaat suljetut mallit johtavat edelleen vaikeimmissa tehtävissä, kuilu on kaventunut dramaattisesti — ja Gemma 4 tarjoaa nollatason token-kustannukset ja täyden Apache 2.0 -vapauden.
Tuomio
Gemma 4 asettaa uuden standardin avoimen painon malleille vuonna 2026. Apache 2.0 -lisenssin, neljän selkeästi eriytyneen mallikoon, natiivin multimodaalisen tuen, konfiguroitavan ajattelutilan ja huomattavasti suurempien mallien kanssa kilpailevien suorituskykytulosten yhdistelmä tekee siitä käytännöllisimmän saatavilla olevan avoimen malliperheen.
31B Dense on oikea valinta, kun tarvitset maksimaalista laatua. 26B MoE on oikea valinta, kun tarvitset vahvaa laatua minimaalisilla laskentakustannuksilla. E2B ja E4B ovat oikeat valinnat edge-käyttöönottoon ja laitteessa tapahtuvaan tekoälyyn. Ensimmäistä kertaa Gemma-perheessä lisenssi ei rajoita mitään näistä käyttötapauksista.
Lähteet
- Introducing Gemma 4 - Google Blog
- Gemma 4 Technical Report - Google DeepMind
- Gemma 4 on Hugging Face
- Gemma 4 Ollama Models
- NVIDIA Gemma 4 RTX Optimization
- Gemma 4 Arena AI Rankings
- Gemma 4 Android Studio Integration
- Apache 2.0 License
- Gemma 4 Benchmark Analysis - Artificial Analysis
- Gemma 4 Overview - Google AI for Developers