Gemma 4: Så här ser Googles nya AI-modeller med öppen källkod ut.

  • Gemma 4 är en familj av fyra AI-modeller med öppen källkod baserade på samma teknik som Gemini 3 och distribuerade under Apache 2.0-licensen.
  • Modellerna sträcker sig från lättviktsvarianter för mobil och edge (E2B och E4B) till kraftfulla 26B MoE- och 31B Dense-konfigurationer för arbetsstationer och moln.
  • De erbjuder multimodala funktioner, avancerat resonemang, offline-kodgenerering, kontextfönster på upp till 256 000 tokens och stöd för mer än 140 språk.
  • Deras fokus på lokal exekvering, hårdvarueffektivitet och tillåtande licensiering gör dem till ett attraktivt alternativ för utvecklare och företag i Spanien och Europa.

Gemma 4 AI-modeller med öppen källkod

den nya familjen Pärla 4 Det har blivit en av de mest omtalade rörelserna i landskapet öppen artificiell intelligensGoogle DeepMind har beslutat att fördubbla sina affärsmodeller med öppen källkod med en generation som kombinerar konkurrenskraftig prestanda, lokal exekvering och en mycket mer tillåtande licens än tidigare versioner.

Denna lansering sätter Gemma 4 i centrum för debatten om öppen källkodsmodeller för AI, ett område där, fram till nu, förslag från Meta, Mistral och kinesiska laboratorier som t.ex. DeepSeekMed fyra varianter utformade för att sträcka sig från en Android-mobiltelefon eller en Raspberry Pi till en avancerad GPU i molnet, strävar Google efter att göra det möjligt för utvecklare, europeiska företag och offentliga förvaltningar att distribuera avancerad AI i sin egen infrastruktur utan så många juridiska eller tekniska begränsningar.

Vad är Gemma 4 och vilken plats intar det i det öppna AI-ekosystemet?

Gemma 4 är en familj av fyra språkmodeller med öppen vikt byggd på samma forskningsgrund som Gemini 3Till skillnad från tidigare generationer av Gemma kommer den här serien från dag ett under Apache 2.0-licensen viktig punkt eftersom den tillåter kommersiell användning, modifiering och omdistribution utan de ytterligare begränsningar som hindrade dess införande i företagsmiljöer.

Med detta drag försöker Google DeepMind återta mark i ett segment där modeller som Lama från Meta eller de kinesiska familjerna Qwen, DeepSeek eller GLM De hade fått stor synlighet, som ett exempel visar. Jämförelse mellan Gemma 3 och DeepSeekGemmas modeller uppgick redan till mer än 400 miljoner nedladdningar och mer av 100 000 communityvarianter före Gemma 4; nu, med en standardiserad och tydlig licens, är målet att den dragkraften ska omsättas i fler projekt i verklig produktion, även på den europeiska marknaden.

DeepMind presenterar själva Gemma 4 som en samling modeller nästa generations öppna vikterinriktad på både experiment och industriell implementering. Tanken är att vilket tekniskt team som helst, från en startup i Barcelona till en forskargrupp i Berlin, kan ladda ner vikterna, anpassa dem till sin domän och köra dem lokalt eller i det europeiska moln de väljer.

Gemma 4 AI-modeller ska köras lokalt

De fyra varianterna av Gemma 4: från mobil till H100 GPU

Familjen består av fyra modeller med olika storlekar och arkitekturerutformad för att täcka praktiskt taget hela spektrumet av tillgänglig hårdvara, från edge computing till stora servrar.

I lättviktsklassen finns Gemma 4 E2B y Gemma 4 E4B, designad för körning på mobila enheter, Raspberry Pi, Jetson Nano och annan edge-utrustning med begränsade resurser. Dessa modeller prioriterar låg latens och begränsad strömförbrukning, utan behov av en konstant anslutning till molnet, något som är särskilt intressant för industriella, hälso- och sjukvårds- eller utbildningsapplikationer i Europa som kräver lokal lagring av data av integritets- eller regelefterlevnadsskäl.

I den övre änden finns Gemma 4 26B MoE y Gemma 4 31B TätDen första använder en arkitektur Blandning av experter (MoE) med upp till 128 "experter", vilket gör att den kan erbjuda prestanda nära den hos mycket större modeller, men med inferenskostnader jämförbara med medianmodellerDen andra, versionen 31B TätDen är optimerad för kvalitet och har redan placerats i topp 3 i Arena AI-rankningen för modeller med öppen text, som konkurrerar med betydligt större förslag.

  Windows 11 26H1: Så här kommer specialversionen för ARM-datorer att se ut

Google hävdar att varianterna 26B och 31B erbjuder kapacitet på gränsnära nivå med en minskad hårdvaruomkostnadI praktiken får de stora modellernas helt exakta vikter plats i en Nvidia H100 80 GB grafikkort, och kvantiserade versioner kan köras i konsumenthårdvaraDetta öppnar dörren för dess användning i avancerade arbetsstationer i europeiska företag utan behov av stora kluster.

Gemma 4-arkitektur och modellvarianter

Tekniska färdigheter: multimodalitet, resonemang och utökat sammanhang

Utöver sin storlek utmärker sig Gemma 4 för en kombination av avancerade förmågor inom resonemang, kodning och multimodalitetModellerna introducerar tydliga förbättringar i flerstegsresonemangvilket leder till mer robusta svar i uppgifter av matematik, logik och planering, viktiga områden för affärsmässiga och vetenskapliga tillämpningar.

Inom mjukvaruutveckling är Gemma 4 finjusterat för offline-kodgenerering och komplexa programmeringsuppgifter. Inledande tester pekar på en hög tillförlitlighet vid nollskottModellen kan producera kodfragment som De kompilerar och fungerar på första försöket.Även om lösningen inte är särskilt sofistikerad ur ett kreativt perspektiv, kan den tillförlitligheten vara mer värdefull än flashiga men bräckliga lösningar för många ingenjörsteam i Europa.

En annan pelare i Gemma 4 är inbyggd multimodalitetHela familjen kan bearbeta text, bilder och video på ett integrerat sätt, och de lätta varianterna inkluderar även ljudingång med stöd för talade kommandon och lokal transkription. Detta gör det enkelt att bygga assistenter som förstår skärmdumpar, skannade dokument eller videoklipp, vilket är användbart i både hem- och professionella miljöer.

Kontextmässigt stöder Gemma 4 fönster upp till 256.000-symboler i de större modellerna och runtomkring 128.000-symboler i kantmodeller. Denna förmåga att hantera stora mängder information gör det möjligt att arbeta med omfattande dokumentation, interna kunskapsbaser eller fullständiga konversationshistoriker utan att förlora sammanhang, en aspekt som värderas högt av europeiska företag som vill integrera AI i sina dokumenthanterings- eller CRM-system.

Gemma 4 multimodal och kodningsfunktioner

Lokal exekvering och optimering för edge-nätverket: AI utan att alltid förlita sig på molnet

En av Gemma 4:s mest relevanta funktioner är dess målmedvetna fokus på AI körbar lokaltModellerna E2B och E4B är optimerad för Android-telefoner, edge-enheter och till och med billiga moderkort såsom Raspberry Pi eller små IoT-orienterade SoC:er. Målet är att minska det pågående beroendet av molnet och lägre latens på nivåer som är nästan omärkliga för slutanvändaren.

  Konvertering av multimediafiler: få ut det mesta av HandBrake

Denna filosofi passar ganska väl in i behoven hos många organisationer inom Spanien och resten av Europa, var han GDPR-efterlevnad och andra föreskrifter kräver att data hanteras med särskild försiktighet. Möjligheten att använda datorseende och språkmodeller som bearbetar information direkt på enheten eller på en lokal server Det förenklar efterlevnadsrevisioner och undviker onödiga dataöverföringar till tredjeländer.

För att maximera effektiviteten i edge-miljöer innehåller lättviktsmodeller tekniker som Inbäddningar per lager (PLE)som strävar efter att utvinna mer prestanda från varje parameter och upprätthålla en rimlig balans mellan strömförbrukning, hastighet och respons. Detta är särskilt intressant för pilotprojekt inom industri 4.0, smarta städer eller uppkopplad hälso- och sjukvård, där den hårdvara som finns tillgänglig i fält inte alltid är särskilt kraftfull.

Samtidigt har modellerna 26B och 31B finjusterats för att fungera bra i Moderna grafikkort från Nvidia och AMD, såväl som i infrastrukturen hos Google Cloud TPUI praktiken gör detta det möjligt för europeiska företag att utvärdera olika strategier: från lokal exekvering i ett dedikerat datacenter upp till hybridimplementeringar i publika moln med datacenter i EU.

Gemma 4 driftsatt på mobila och edge-enheter

Apache-licens 2.0: Varför den är så viktig för företag och startups

Om något har förändrat uppfattningen om Gemma 4 i utvecklarnas ekosystem, så är det dess Apache 2.0-licensFram tills nu distribuerade Google Gemma med sin egen mer restriktiva licens, vilket väckte oro hos stora europeiska företags juridiska avdelningar och hindrade implementering i projekt med ett tydligt kommersiellt fokus.

Med Apache 2.0 är spelreglerna mycket enklare: modeller kan vara använda, modifiera, omdistribuera och förpacka till kommersiella produkter utan att behöva förhandla fram specifika avtal med Google. Dessutom kan företag att behålla immateriella rättigheter till dess inställningar och derivatförutsatt att de respekterar standardlicensvillkoren, något som juridiska team redan är vana vid eftersom det är vanligt i etablerade öppen källkodsprojekt.

En annan relevant punkt för företag med närvaro i flera europeiska länder är att Apache 2.0 tillhandahåller en välkänd och relativt homogen rättslig grundDetta minskar osäkerheten vid skalning av produkter till andra marknader inom EU eller Europeiska ekonomiska samarbetsområdet, där dataskyddsregler och transparenskrav kan variera, men där standarderna för öppen programvarulicensering är mycket lika.

För nystartade teknikerDenna licens tillåter dig att bygga SaaS, interna verktyg eller vertikala lösningar Baserat på Gemma 4, utan att kräva en grundlig juridisk granskning av den underliggande modellen för varje finansieringsrunda. I ett sammanhang där snabbhet i genomförandet är avgörande förenklar en standardiserad licens processen avsevärt.

  Oracles suveräna moln i Spanien: så här befäster landet sin position som en nyckeldel i sin europeiska strategi

Gemma 4 AI-modeller med öppen källkod licensierade under Apache

Integration, ekosystem och kompatibla verktyg

Ett av Googles uttalade mål med Gemma 4 är att modellerna ska integreras väl med befintligt ekosystem med öppen källkodDet är därför de har varit tillgängliga från dag ett Kramande ansikte, en av de viktigaste plattformarna för AI-communityn, och de har stöd i populära verktyg som Ollama, LM Studio eller DockerDetta gör det enklare för både enskilda utvecklare och datateam i företag att testa modeller utan en komplex distributionsprocess.

Dessutom inkluderar Gemma 4 som standard funktioner utformade för autonoma agenter och avancerade flöden, som anrop av inbyggda funktioneri generera strukturerad JSON-utdata och stöd för systeminstruktionerDessa funktioner förenklar konstruktionen av guider som anropar API:er, ansluter till databaser eller interagerar med andra företagsverktyg utan behov av ytterligare tekniska lager.

När det gäller molndistribution är modellerna integrerade med Google AI Studio, Vertex AI och Google AI Edge Gallerymen de kan också köras på andra infrastrukturer tack vare deras distribution som öppna vikter. Detta gör det möjligt för europeiska organisationer att välja Moln med datacenter i EU Eller, om de föredrar det, behålla all behandling i sina egna anläggningar för att stärka kontrollen över uppgifterna.

Stöd för mer än 140 språk Detta gör Gemma 4 till ett rimligt alternativ för flerspråkiga applikationer, något som är särskilt relevant i Europa, där de samexisterar. nationella marknader med starka språkliga särdragFrån assistenter på spanska och katalanska till gränssnitt på franska, tyska eller italienska är Gemma-familjen utformad för att anpassa sig utan att behöva tillgripa olika modeller för varje språk.

Sammantaget kombinationen av öppna vikter, kompatibla verktyg och tillåtande licensiering Gemma 4 positionerar sig som ett av de mest omfattande alternativen för dem som behöver AI-modeller som kan finjusteras, granskas och driftsättas med viss kontroll, utan att offra konkurrenskraftiga prestanda jämfört med andra öppna alternativ på marknaden.

All denna aktivitet från Google DeepMind förstärker känslan av att öppen AI på hög nivå Gemma 4 har gått från att vara ett laboratorieexperiment till att bli en strategisk produkt- och infrastrukturkomponent. Det kommer vid en tidpunkt då europeiska företag och offentliga förvaltningar försöker balansera innovation, teknisk suveränitet och regelefterlevnad, och det passar väl in i detta scenario genom att erbjuda kraftfulla, lokalt exekverbara modeller med en standardlicens. För utvecklare och organisationer som vill utforska eller konsolidera lösningar baserade på öppna språkmodeller ansluter sig Gemma 4 till den korta listan över alternativ att seriöst överväga.

Jämförelse mellan Gemma 3 vs DeepSeek
Relaterad artikel:
Gemma 3 vs DeepSeek: En komplett jämförelse av de mest kraftfulla och tillgängliga AI-modellerna