← Back to news
ZBuild News

Google Gemma 4: Täydellinen opas teknisiin tietoihin, benchmark-tuloksiin ja uutuuksiin (2026)

Kaikki mitä sinun tarvitsee tietää Google Gemma 4 -mallista — ensimmäinen Apache 2.0 -lisenssillä julkaistu Gemma-versio. Kattaa kaikki 4 mallikokoa (E2B, E4B, 26B MoE, 31B Dense), multimodal-ominaisuudet, konfiguroitavan thinking mode -tilan, 256K context -ikkunan, 85.2% MMLU Pro -tuloksen ja laitteistovaatimukset paikalliseen käyttöön.

Published
2026-04-03T00:00:00.000Z
Author
ZBuild Team
Reading Time
11 min read
gemma 4google gemma 4gemma 4 releasegemma 4 benchmarksgemma 4 specsgemma 4 open source
Google Gemma 4: Täydellinen opas teknisiin tietoihin, benchmark-tuloksiin ja uutuuksiin (2026)
ZBuild Teamfi
XLinkedIn

Keskeinen havainto

Google Gemma 4 on kyvykkäin avoimen painon (open-weight) malliperhe, joka on koskaan julkaistu todella sallivalla lisenssillä. 31B Dense -malli saavuttaa 85.2% MMLU Pro -testissä ja sijoittuu 3. sijalle kaikkien avointen mallien joukossa Arena AI -alustalla — kun taas 26B MoE saavuttaa lähes identtisen laadun vain 3.8B aktiivisella parametrilla. Ensimmäistä kertaa Gemma julkaistaan Apache 2.0 -lisenssillä, mikä poistaa kaikki lisenssikitkat, jotka rajoittivat aiempien sukupolvien kaupallista käyttöönottoa.


Google Gemma 4: Kaikki mitä sinun tarvitsee tietää

Julkaisun yleiskatsaus

Google DeepMind julkaisi Gemma 4:n April 2, 2026, esitellen neljä mallikokoa, jotka on rakennettu samalle teknologiselle perustalle kuin Gemini 3. Tämä sukupolvi edustaa suurinta harppausta Gemma-perheessä kaikilla osa-alueilla: mallin laadussa, multimodaalisissa kyvyissä, kontekstin pituudessa ja lisenssiehdoissa.

Keskeiset muutokset Gemma 3:een verrattuna:

  • Apache 2.0 -lisenssi — ei käyttörajoituksia, ei mukautettua lisenssiä, täysi kaupallinen vapaus
  • Neljä mallikokoa kolmen sijasta, mukaan lukien uusi MoE-arkkitehtuuri
  • Natiivi multimodaalinen tuki kaikissa koissa (teksti, kuvat, video, audio)
  • Konfiguroitava ajattelutila yli 4,000 tokenin päättelyketjuilla
  • 256K konteksti-ikkunat suuremmissa malleissa (kasvu Gemma 3:n rajoituksista)
  • 35+ tuettua kieltä, esikoulutettu yli 140+ kielellä
  • Rakenteellinen työkalujen käyttö agenttisia työnkulkuja varten

Neljä mallikokoa

Gemma 4 toimitetaan neljässä eri koossa, joista jokainen on suunnattu erilaisiin käyttöympäristöihin:

MalliParametritAktiiviset parametritArkkitehtuuriKontekstiModaliteetit
E2B2.3B tehollinen2.3BDense128KTeksti, kuva, video, audio
E4B4.5B tehollinen4.5BDense128KTeksti, kuva, video, audio
26B MoE26B yhteensä3.8BMixture of Experts256KTeksti, kuva
31B Dense31B31BDense256KTeksti, kuva

Lähde: Google AI Blog

E2B ja E4B: Edge-mallit

Pienimmät Gemma 4 -mallit on suunniteltu laitteessa tapahtuvaan käyttöönottoon. 2.3B ja 4.5B tehollisilla parametreilla ne toimivat älypuhelimissa, tableteissa ja kannettavissa tietokoneissa jopa vain 5GB RAM-muistilla käyttämällä 4-bit kvantisointia.

Huomionarvoista näissä malleissa on niiden modaliteettien laajuus. Huolimatta siitä, että ne ovat perheen pienimpiä, E2B ja E4B ovat ainoat Gemma 4 -mallit, jotka tukevat kaikkia neljää syötemuotoa: tekstiä, kuvia, videota ja audiota. Tämä on tietoinen suunnitteluratkaisu — kameroilla ja mikrofoneilla varustetut päätelaitteet hyötyvät eniten multimodaalisista kyvyistä.

Molemmat mallit tukevat 128K tokenin konteksti-ikkunaa, mikä on runsas niiden parametrimäärään nähden ja riittävä useimpiin laitteessa tapahtuviin käyttötapauksiin.

26B MoE: Maksimaalinen tehokkuus

26B Mixture of Experts -malli on kenties Gemma 4 -malliston mielenkiintoisin malli. Se sisältää yhteensä 26B parametria, mutta aktivoi vain 3.8B parametria mille tahansa syötteelle — suunnilleen saman laskentakustannuksen kuin E4B-malli, mutta huomattavasti suuremmalla tietomäärällä ja kyvykkyydellä.

Arena AI -alustalla 26B MoE sijoittuu 6. sijalle kaikkien avointen mallien joukossa pisteillä 1441, vaikka se käyttää vain 3.8B aktiivista parametria. Tämä tehokkuussuhde on ennennäkemätön — mikään muu malli ei saavuta vastaavaa laatua tällä laskentakustannuksella.

MoE-arkkitehtuuri ohjaa jokaisen tokenin erikoistuneiden asiantuntija-aliverkkojen läpi, mikä mahdollistaa mallin suuren tietokapasiteetin säilyttämisen samalla kun inferenssi-kustannukset pysyvät alhaisina. Käyttöympäristöissä, joissa tarvitaan vahvaa päättelykykyä mutta GPU-muisti on rajallinen, 26B MoE on optimaalinen valinta.

31B Dense: Maksimaalinen laatu

31B Dense -malli on Gemma 4:n lippulaiva. Jokainen parametri on aktiivinen jokaiselle tokenille, mikä takaa johdonmukaisimmat ja korkealaatuisimmat tulokset kaikissa tehtävätyypeissä.

Arena AI -alustalla 31B Dense sijoittuu 3. sijalle kaikkien avointen mallien joukossa pisteillä 1452. MMLU Pro -testissä se saavuttaa 85.2% — kilpaillen useita kertoja suurempien mallien kanssa. AIME 2026 -testin 89.2% tulos osoittaa vahvaa matemaattista päättelykykyä, kun taas 74% tulos BigBench Extra Hard -testissä (nousu 19%:sta edellisissä sukupolvissa) näyttää valtavan parannuksen monimutkaisissa päättelytehtävissä.


Suorituskykytestit: Täydelliset tiedot

Päättely ja tietämys

Benchmark31B Dense26B MoEHuomautukset
MMLU Pro85.2%Jatkotutkintotason tietämys
AIME 202689.2%Kilpailumatematiikka
BigBench Extra Hard74%Nousu 19%:sta edellisessä sukupolvessa
Arena AI Score1452 (3rd)1441 (6th)Avointen mallien sijoitukset

Lähde: Google DeepMind tekninen raportti

BigBench Extra Hard: Poikkeuksellinen tulos

Hyppy 19%:sta 74%:iin BigBench Extra Hard -testissä ansaitsee erityishuomiota. Tämä testi mittaa monimutkaista monivaiheista päättelyä, loogista deduktiota ja tehtäviä, jotka vaativat aitoa ymmärrystä pelkän hahmon tunnistuksen sijaan. 55 prosenttiyksikön parannus yhdessä sukupolvessa viittaa perustavanlaatuisiin edistysaskeliin Gemma 4:n päättelyarkkitehtuurissa, ei pelkästään skaalaukseen.

Tämä parannus on todennäköisesti yhteydessä konfiguroitavaan ajattelutilaan ja taustalla olevaan Gemini 3 -teknologiaan, jolle Gemma 4 on rakennettu. Ajattelutila tuottaa laajennettuja päättelyketjuja, jotka auttavat mallia ratkaisemaan monimutkaisia ongelmia askel askeleelta.

Arena AI -sijoitusten konteksti

Arena AI sijoittaa mallit perustuen ihmisten tekemiin vertailuihin. 31B Dense -mallin 1452 pistettä ja 3. sija avointen mallien joukossa asettaa sen monien huomattavasti useampia parametreja sisältävien mallien yläpuolelle. Kontekstina:

  • Sen yläpuolelle sijoittuvat mallit ovat tyypillisesti 70B+ parametrin malleja
  • 26B MoE -mallin saavuttama 1441 pisteen tulos vain 3.8B aktiivisella parametrilla on tehokkuuden läpimurto
  • Molemmat mallit suoriutuvat huomattavasti paremmin kuin edellinen Gemma 3 27B

Multimodaaliset kyvyt

Kuvan ymmärtäminen

Kaikki neljä Gemma 4 -mallia käsittelevät kuvia natiivisti. Kykyihin kuuluvat:

  • Kuvan kuvaus ja analysointi — visuaalisen sisällön yksityiskohtainen ymmärtäminen
  • OCR ja dokumenttien jäsennys — tekstin erottaminen kuvista, kuiteista ja näyttökuvista
  • Kaavioiden ja diagrammien tulkinta — datan visualisointien ymmärtäminen
  • Visuaalinen päättely — vastaaminen kysymyksiin, jotka vaativat spatiaalisten suhteiden ymmärtämistä

Video ja audio (vain E2B/E4B)

Pienemmät E2B- ja E4B-mallit lisäävät natiivin videon ja audion käsittelyn:

  • Videon ymmärtäminen — videosisällön analysointi ilman ruutu kerrallaan tapahtuvaa erottelua
  • Audion litterointi ja ymmärtäminen — puheen ja ympäristön äänien käsittely
  • Ristimodaalinen päättely — vastaaminen kysymyksiin, jotka kattavat tekstiä, kuvaa, videota ja audiota

Tämä suunnitteluratkaisu heijastaa Googlen keskittymistä edge-käyttöönottoon. Mobiililaitteet tallentavat videota ja audiota natiivisti, joten kyseisille laitteille suunnitellut mallit tukevat näitä modaliteetteja.


Konfiguroitava ajattelutila

Gemma 4 esittelee konfiguroitavan ajattelutilan, joka tuottaa yli 4,000 tokenia sisäistä päättelyä ennen vastauksen muodostamista. Tämä on samanlainen kuin Claude-malleissa ja OpenAI:n o-sarjassa nähty laajennettu ajattelukyky, mutta toteutettuna avoimen painon mallissa.

Miten se toimii

Kun ajattelutila on käytössä, malli:

  1. Vastaanottaa syötteen
  2. Tuottaa sisäisen päättelyketjun (näkyvissä tai piilotettuna asetuksista riippuen)
  3. Käyttää päättelyketjua korkealaatuisemman lopullisen vastauksen tuottamiseen

Ajattelutila voidaan kytkeä päälle pyyntökohtaisesti, mikä mahdollistaa kehittäjille:

  • Ajattelun sallimisen monimutkaisissa matematiikka-, logiikka-, koodaus- ja analyysitehtävissä
  • Ajattelun poistamisen käytöstä yksinkertaisissa kyselyissä, chateissa ja latenssiherkissä sovelluksissa
  • Ajattelun syvyyden säätämisen tehtävän oletetun monimutkaisuuden perusteella

Vaikutus laatuun

Ajattelutila on keskeinen tekijä Gemma 4:n vahvan suorituskyvyn taustalla. AIME 2026 -tulos 89.2% ja BigBench Extra Hard -tulos 74% saavutetaan molemmat ajattelutilan ollessa käytössä. Ilman ajattelutilaa nämä tulokset olisivat huomattavasti alhaisempia — noudattaen samaa kaavaa kuin muissa malleissa, joissa on laajennettu päättelykyky.


Apache 2.0: Miksi lisenssimuutos on tärkeä

Aiemmat Gemma-sukupolvet toimitettiin Googlen mukautetulla Gemma-lisenssillä, joka sisälsi rajoituksia koskien:

  • Käyttöä tietyissä sovelluksissa
  • Jakeluehtoja
  • Kaupallisen käyttöönoton rajoituksia laajamittaisessa käytössä

Gemma 4 siirtyy Apache 2.0 -lisenssiin, joka on sama lisenssi, jota käyttävät projektit kuten Kubernetes, TensorFlow ja Apache HTTP Server. Tämä tarkoittaa:

  • Ei käyttörajoituksia — käytä mihin tahansa, mukaan lukien kaupalliset tuotteet
  • Ei jakelurajoituksia — jaa muokattuja painoja vapaasti
  • Ei muita nimeämisvaatimuksia kuin lisenssin mukaiset — vakio Apache 2.0 -ilmoitus
  • Ei tarvetta Googlen hyväksynnälle — ota käyttöön missä tahansa mittakaavassa ilman lupaa
  • Yhteensopiva muiden avoimen lähdekoodin lisenssien kanssa — helppo integroida olemassa oleviin projekteihin

Yrityksille ja startupeille, jotka rakentavat tuotteita avointen mallien päälle, tämä poistaa lakiteknisen arvioinnin tarpeen, jota Gemma-mallien aiempi mukautettu lisenssi vaati. Se tekee Gemma 4:stä myös suoraan vertailukelpoisen Metan Llama-malleihin (jotka käyttävät omaa mukautettua lisenssiään tietyillä rajoituksilla) ja asettaa sen kaikkein sallivimmin lisensoiduksi korkealaatuiseksi avoimeksi malliperheeksi.


Kielituki

Gemma 4 tukee yli 35+ kieltä inferenssissä ja on esikoulutettu yli 140+ kielellä. Tämä tekee siitä yhden monikielisimmistä saatavilla olevista avoimista malleista, Qwen-mallien ohella, jotka myös painottavat laajaa kielitukea.

Tuettuihin kieliin kuuluvat suuret maailmankielet (englanti, kiina, espanja, ranska, saksa, japani, korea, arabia, hindi, portugali, venäjä) sekä monia kieliä, joilla on pienempi digitaalinen jalanjälki. Esikoulutus 140+ kielellä tarkoittaa, että mallilla on kyvykkyyttä myös virallisesti tuetun 35+ kielen ulkopuolella, vaikka laatu saattaa vaihdella.

Sovelluksille, jotka on suunnattu globaalille yleisölle tai muille kuin englanninkielisille markkinoille, tämä laajennettu kielituki vähentää tarvetta kielelliseen hienosäätöön tai erillisiin malleihin per kieli.


Rakenteellinen työkalujen käyttö ja agenttiset työnkulut

Gemma 4 sisältää natiivin tuen rakenteelliselle työkalujen käytölle, mikä mahdollistaa agenttiset työnkulut, joissa malli voi:

  • Kutsua ulkoisia API-rajapintoja oikein muotoilluilla pyynnöillä
  • Jäsentää rakenteellisia vastauksia työkaluilta ja palveluilta
  • Ketjuttaa useita työkalukutsuja monimutkaisten tehtävien suorittamiseksi
  • Käsitellä virheitä ja uudelleenyrityksiä työkalujen suorituksessa

Tämä kyvykkyys on erityisen merkittävä Android Studio -integraation kannalta, jossa Gemma 4 mahdollistaa paikalliset agenttiset koodaustyönkulut. Malli voi ymmärtää koodikontekstin, ehdottaa muutoksia, suorittaa työkaluja ja iteroida — kaikki tämä paikallisesti kehittäjän koneella ilman koodin lähettämistä ulkoisille palvelimille.

AI-agentteja rakentaville kehittäjille Gemma 4:n rakenteellinen työkalujen käyttö tarjoaa täysin paikallisen ja yksityisen perustan. Yhdistettynä Apache 2.0 -lisenssiin tämä mahdollistaa agenttisten sovellusten rakentamisen ja käyttöönoton ilman riippuvuutta ulkoisista mallintarjoajista.


Laitteistovaatimukset

Paikallinen käyttöönotto Ollama-työkalulla

MalliRAM-vaatimus (4-bit)RAM-vaatimus (FP16)GPU-suositus
E2B~5 GB~5 GBMikä tahansa moderni GPU / vain CPU
E4B~5 GB~9 GBMikä tahansa moderni GPU / vain CPU
26B MoE~18 GB~52 GBRTX 4090 / RTX 5090
31B Dense~20 GB~62 GBRTX 4090 / RTX 5090

Lähde: Ollama mallikirjasto

E2B- ja E4B-mallit on suunniteltu erityisesti edge-käyttöönottoon. Ne toimivat sujuvasti kannettavilla tietokoneilla, pöytätietokoneiden prosessoreilla ja jopa joissakin älypuhelimissa. 26B MoE ja 31B Dense -mallit vaativat erillisen GPU-laitteiston, mutta pysyvät yksittäisten kehittäjien ulottuvilla kuluttajatason näytönohjaimilla.

NVIDIA-optimointi

NVIDIA on julkaissut optimoidut versiot Gemma 4:stä RTX GPU -ohjaimille, tarjoten:

  • Nopeamman inferenssin GPU-kohtaisten kernel-optimointien avulla
  • Pareman muistinkäytön RTX 4000- ja 5000-sarjan korteilla
  • TensorRT-integraation tuotantokäyttöön
  • CUDA graph -tuen vähentämään ylikuormitusta toistuvassa inferenssissä

Lähde: NVIDIA AI Blog


Mikä muuttui Gemma 3:een verrattuna

OminaisuusGemma 3Gemma 4
LisenssiGemma License (rajoitettu)Apache 2.0 (rajoittamaton)
Mallikoot3 kokoa4 kokoa (lisätty MoE)
Konteksti-ikkunaJopa 128KJopa 256K
ModaliteetitTeksti, kuvaTeksti, kuva, video, audio
AjattelutilaEiKyllä (konfiguroitava)
Työkalujen käyttöRajoitettuRakenteellinen työkalujen käyttö
Kielet30+35+ (esikoulutettu 140+)
BigBench Extra Hard19%74%

Jokainen osa-alue parani. Kehittäjille merkittävimmät muutokset ovat Apache 2.0 -lisenssi (poistaa lakiteknisen kitkan), ajattelutila (parantaa laatua vaikeissa tehtävissä) ja MoE-arkkitehtuuri (tarjoaa lippulaivatason laatua murto-osalla laskentakustannuksista).


Käytännön käyttötapaukset

Koodaus ja kehitys

Gemma 4:n rakenteellinen työkalujen käyttö ja ajattelutila tekevät siitä tehokkaan seuraavissa:

  • Paikallinen koodin täydennys ja tuottaminen
  • Koodin katselmointi ja virheiden havaitseminen
  • Automaattinen testien generointi
  • Dokumentaation kirjoittaminen
  • Agenttiset koodaustyönkulut Android Studio -ympäristössä

Dokumenttien käsittely

256K konteksti-ikkunan ja multimodaalisen tuen ansiosta:

  • Käsittele kokonaisia koodikantoja tai pitkiä dokumentteja yhdellä kehotteella
  • Pura tietoa dokumenttien kuvista, kuiteista ja lomakkeista
  • Analysoi kaavioita ja datan visualisointeja
  • Tiivistä pitkiä tutkimusartikkeleita tai juridisia asiakirjoja

AI-pohjaisten sovellusten rakentaminen

Kehittäjille, jotka rakentavat tekoälyominaisuuksia sisältäviä tuotteita, Gemma 4 tarjoaa vahvan laitteessa tapahtuvan tai itse isännöidyn inferenssikerroksen. Malli hoitaa älykkyyden — kyselyiden ymmärtämisen, vastausten tuottamisen, kuvien käsittelyn — kun taas sovelluskehys hoitaa loput. Työkalut kuten ZBuild voivat nopeuttaa sovelluskuoren rakentamista (frontend, backend, tietokanta, käyttöönotto), jolloin voit keskittyä kehitystyössä AI-integraatiokerrokseen, jossa Gemma 4:n kyvyt ovat merkittävimmillään.

Edge- ja mobiilikäyttöönotto

E2B- ja E4B-mallit avaavat käyttötapauksia, jotka olivat aiemmin mahdottomia avoimilla malleilla:

  • Laitteessa toimivat avustajat, jotka toimivat offline-tilassa
  • Yksityisyyden säilyttävät AI-ominaisuudet, jotka eivät koskaan lähetä tietoja ulkoisille palvelimille
  • Reaaliaikainen videon ja audion käsittely mobiililaitteissa
  • Sulautettu tekoäly IoT- ja robotiikkasovelluksissa

Miten pääset alkuun

Ollama (Nopein reitti)

# Asenna Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Lataa ja aja Gemma 4
ollama run gemma4:e2b      # Pienin, toimii kaikkialla
ollama run gemma4:e4b      # Pieni, laajempi kyvykkyys
ollama run gemma4:26b-moe  # MoE, paras tehokkuus
ollama run gemma4:31b      # Dense, korkein laatu

Hugging Face

Kaikki Gemma 4 -mallit ovat saatavilla Hugging Face -palvelussa täydellä transformers-integraatiolla:

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("google/gemma-4-31b")
tokenizer = AutoTokenizer.from_pretrained("google/gemma-4-31b")

Google AI Studio

Google tarjoaa ilmaisen API-pääsyn Gemma 4 -malleihin AI Studio -palvelun kautta kokeilua ja prototyyppien rakentamista varten, ja Vertex AI on käytettävissä tuotantotason käyttöönottoon.


Gemma 4 kilpailukentässä

Ymmärtääksesi missä Gemma 4 sijoittuu laajemmassa ekosysteemissä:

MalliParametritLisenssiMMLU ProArena AIKonteksti
Gemma 4 31B31BApache 2.085.2%1452256K
Gemma 4 26B MoE26B (3.8B active)Apache 2.01441256K
Llama 4 Maverick400B (~17B active)Meta License79.6%14171M
Llama 4 Scout109B (~17B active)Meta License~140010M
Qwen 3.5 72B72BApache 2.081.4%1438128K
Qwen 3.5 MoE397B (~22B active)Apache 2.083.1%1449128K

Gemma 4 31B saavuttaa korkeimman MMLU Pro -tuloksen ja Arena AI -sijoituksen avointen mallien joukossa — vähäisimmällä kokonaisparametrilla. Tämä parametritehokkuus on suoraa seurausta Gemini 3 -teknologia-alustasta ja konfiguroitavasta ajattelutilasta.

26B MoE -mallin tehokkuustarina on vieläkin vakuuttavampi. Se sijoittuu 6. sijalle Arena AI -alustalla aktivoiden vain 3.8B parametria per token. Mikään muu malli ei saavuta vastaavaa laatu-laskenta-suhdetta. Tuotantokäytössä, jossa inferenssikustannukset skaalautuvat käytön mukaan, tämä tehokkuus tarkoittaa suoria säästöjä.

Verrattuna suljettuihin malleihin Gemma 4 31B:n suorituskyky on kilpailukykyinen Anthropic:n ja OpenAI:n keskitason mallien kanssa. Vaikka parhaat suljetut mallit johtavat edelleen vaikeimmissa tehtävissä, kuilu on kaventunut dramaattisesti — ja Gemma 4 tarjoaa nollatason token-kustannukset ja täyden Apache 2.0 -vapauden.


Tuomio

Gemma 4 asettaa uuden standardin avoimen painon malleille vuonna 2026. Apache 2.0 -lisenssin, neljän selkeästi eriytyneen mallikoon, natiivin multimodaalisen tuen, konfiguroitavan ajattelutilan ja huomattavasti suurempien mallien kanssa kilpailevien suorituskykytulosten yhdistelmä tekee siitä käytännöllisimmän saatavilla olevan avoimen malliperheen.

31B Dense on oikea valinta, kun tarvitset maksimaalista laatua. 26B MoE on oikea valinta, kun tarvitset vahvaa laatua minimaalisilla laskentakustannuksilla. E2B ja E4B ovat oikeat valinnat edge-käyttöönottoon ja laitteessa tapahtuvaan tekoälyyn. Ensimmäistä kertaa Gemma-perheessä lisenssi ei rajoita mitään näistä käyttötapauksista.


Lähteet

Back to all news
Enjoyed this article?
FAQ

Common questions

Mikä on Google Gemma 4 ja milloin se julkaistiin?+
Google Gemma 4 on Google DeepMindin open-weight-malliperhe, joka julkaistiin 2. huhtikuuta 2026. Se sisältää 4 kokoa — E2B (2.3B effective), E4B (4.5B effective), 26B MoE (3.8B active / 26B total) ja 31B Dense. Kaikki mallit on julkaistu Apache 2.0 -lisenssillä, joka on kaikkien aikojen sallivin Gemma-julkaisussa käytetty lisenssi.
Onko Gemma 4 todella avointa lähdekoodia?+
Kyllä. Gemma 4 on ensimmäinen Gemma-sukupolvi, joka on julkaistu Apache 2.0 -lisenssillä, mikä sallii rajoittamattoman kaupallisen käytön, muokkaamisen ja jakelun ilman Googlen lupaa. Aikaisemmat Gemma-mallit käyttivät Googlen mukautettua Gemma-lisenssiä, joka asetti käyttörajoituksia.
Mitä context window -pituutta Gemma 4 tukee?+
Pienemmät mallit (E2B ja E4B) tukevat 128K token context -ikkunoita. Suuremmat mallit (26B MoE ja 31B Dense) tukevat 256K token context -ikkunoita. Tämä on merkittävä parannus Gemma 3:n context-rajoituksiin ja mahdollistaa kokonaisten koodikantojen tai pitkien asiakirjojen käsittelyn yhdellä kehotteella.
Pystyykö Gemma 4 käsittelemään kuvia, videota ja ääntä?+
Kyllä. Kaikki neljä Gemma 4 -mallia ovat natiivisti multimodal-malleja ja tukevat teksti- ja kuvasyötteitä. E2B- ja E4B-mallit menevät pidemmälle natiiveilla video- ja audio-käsittelyominaisuuksilla. Tämä tekee Gemma 4:stä ensimmäisen open-weight-malliperheen, jossa pienimmillä malleilla on laajin modaliteettituki.
Miten Gemma 4:n thinking mode toimii?+
Gemma 4 sisältää konfiguroitavan thinking mode -tilan, joka generoi yli 4,000 tokenia sisäistä päättelyä ennen vastauksen tuottamista. Tämä chain-of-thought-päättely voidaan kytkeä päälle tai pois pyyntökohtaisesti, jolloin kehittäjät voivat valita nopeampien vastausten välillä yksinkertaisissa tehtävissä ja syvemmän päättelyn välillä monimutkaisissa ongelmissa, kuten matematiikassa, logiikassa ja koodauksessa.
Mitä laitteistoa tarvitsen Gemma 4:n ajamiseen paikallisesti?+
Gemma 4 E2B ja E4B toimivat laitteilla, joissa on vain 5GB RAM-muistia käyttäen 4-bit quantization -menetelmää, mukaan lukien älypuhelimet ja kannettavat tietokoneet. 26B MoE -malli vaatii noin 18GB RAM-muistia ja 31B Dense vaatii noin 20GB RAM-muistia. Kaikki mallit toimivat Ollama-ohjelmiston kautta NVIDIA RTX GPU -optimoinnilla.

Rakenna ZBuildlla

Muuta ideasi toimivaksi sovellukseksi — koodausta ei tarvita.

Yli 46 000 kehittäjää rakensi ZBuildlla tässä kuussa

Kokeile itse

Kuvaile mitä haluat — ZBuild rakentaa sen puolestasi.

Yli 46 000 kehittäjää rakensi ZBuildlla tässä kuussa
More Reading

Related articles

Claude Sonnet 4.6 Täydellinen opas: Benchmarks, Pricing, Capabilities ja milloin käyttää sitä (2026)
2026-03-27T00:00:00.000Z

Claude Sonnet 4.6 Täydellinen opas: Benchmarks, Pricing, Capabilities ja milloin käyttää sitä (2026)

Lopullinen opas Claude Sonnet 4.6 -malliin — Anthropicin keskitason malli, joka julkaistiin 17. helmikuuta 2026. Kattaa kaikki benchmarks (SWE-bench 79.6%, OSWorld 72.5%, ARC-AGI-2 58.3%), API pricing ($3/$15 per million tokens), extended thinking, 1M context window ja yksityiskohtaiset vertailut Opus 4.6 ja GPT-5.4 kanssa.

Grok 5 täydellinen opas: Julkaisupäivä, 6T parametria, Colossus 2 & xAI:n AGI-tavoitteet (2026)
2026-03-27T00:00:00.000Z

Grok 5 täydellinen opas: Julkaisupäivä, 6T parametria, Colossus 2 & xAI:n AGI-tavoitteet (2026)

Kaikki mitä Grok 5:stä tiedetään maaliskuussa 2026 — 6 biljoonan parametrin malli, jota koulutetaan xAI:n Colossus 2 -suurkoneklusterilla. Käsittelemme viivästynyttä julkaisupäivää, teknisiä tietoja, Elon Muskin 10 % AGI-väitettä, benchmark-ennusteita ja sitä, mitä se tarkoittaa AI-alalle.

DeepSeek V4 julkaisu: tekniset tiedot, suorituskykytestit ja kaikki mitä tiedämme 1T avoimen lähdekoodin mallista (2026)
2026-03-27T00:00:00.000Z

DeepSeek V4 julkaisu: tekniset tiedot, suorituskykytestit ja kaikki mitä tiedämme 1T avoimen lähdekoodin mallista (2026)

Täydellinen opas DeepSeek V4:ään — 1 biljoonan parametrin avoimen lähdekoodin malli, jossa on Engram memory, miljoonan tokenin konteksti ja 81 % SWE-Bench. Käsittelemme arkkitehtuuria, suorituskykytestejä, hinnoittelua, julkaisuaikataulua ja vertailua malleihin GPT-5.4 ja Claude Opus 4.6.

Seedance 2.0 Täydellinen opas: ByteDance’n AI Video Generation Model teksti-, kuva-, ääni- ja videosyötteille (2026)
2026-03-27T00:00:00.000Z

Seedance 2.0 Täydellinen opas: ByteDance’n AI Video Generation Model teksti-, kuva-, ääni- ja videosyötteille (2026)

Lopullinen opas Seedance 2.0:aan, ByteDance’n AI-videonluontimalliin, joka käsittelee tekstiä, kuvia, videoklippejä ja ääntä samanaikaisesti. Kattaa ominaisuudet, API-asennuksen, hinnoittelun, prompt engineeringin, vertailun Sora 2:n ja Kling 3.0:n kanssa sekä todelliset tuotantotyönkulut.