← Alle Artikel
03. April 2026 KIOpen SourceGoogleDeep Dive

Google Gemma 4: Starke Open-Source-KI, die auf dein Handy passt

Google hat mit Gemma 4 seine bisher stärksten offenen KI-Modelle veröffentlicht — unter Apache 2.0 Lizenz. Was das bedeutet und warum es wichtig ist.

Google verschenkt seine bisher besten KI-Modelle — und das ist eine große Sache

Am 2. April 2026 hat Google DeepMind Gemma 4 veröffentlicht. Vier KI-Modelle, komplett kostenlos, unter einer Lizenz, die so ziemlich alles erlaubt. Und das kleinste davon läuft auf deinem Smartphone. Klingt zu gut? Schauen wir uns an, was dahintersteckt.

Was ist Gemma überhaupt?

Gemma ist Googles Familie von Open-Source-KI-Modellen. „Open Source" bedeutet in diesem Fall: Der Code und die Modellgewichte (also das „Wissen" der KI) sind frei verfügbar. Jeder kann sie herunterladen, nutzen, verändern und sogar in kommerzielle Produkte einbauen.

Stell dir den Unterschied so vor: Gemini ist Googles Premium-KI, die du über Googles eigene Dienste nutzt — wie ein Restaurant, in dem du bedient wirst. Gemma hingegen ist das Rezept plus alle Zutaten, die du mit nach Hause nehmen und selbst kochen kannst. Gemma 4 basiert auf der gleichen Forschung wie Googles aktuelles Flaggschiff-Modell Gemini 3, ist aber eben frei verfügbar.

Der Name „Gemma" kommt übrigens vom lateinischen Wort für „Edelstein" — passend, wenn man bedenkt, dass Google damit echte Schätze freigibt.

Wie funktioniert das unter der Haube?

Gemma 4 kommt in vier verschiedenen Größen, und jede hat ihren eigenen Einsatzzweck:

Die Edge-Modelle (für Smartphones und schwache Hardware): Das Effective 2B (E2B) und das Effective 4B (E4B) sind die kleinen Geschwister. Die Zahl steht für „Milliarden Parameter" — also grob gesagt, wie viele Verknüpfungen das KI-Gehirn hat. Diese Modelle sind so kompakt, dass sie direkt auf deinem Handy laufen können, ohne eine Internetverbindung zu brauchen. Sie unterstützen ein Kontextfenster von 128.000 Tokens — das bedeutet, sie können etwa 200 Seiten Text auf einmal verarbeiten. Außerdem können diese kleinen Modelle nicht nur Text und Bilder verstehen, sondern auch Audio verarbeiten — also Sprache erkennen und sogar übersetzen.

Die Power-Modelle (für Server und anspruchsvolle Aufgaben): Das 26B MoE (Mixture of Experts) nutzt einen cleveren Trick: Es hat zwar insgesamt 25,2 Milliarden Parameter, aktiviert aber bei jeder Anfrage nur 3,8 Milliarden davon. Stell dir das vor wie ein Großraumbüro mit 25 Experten — aber für jede Frage stehen nur die 4 auf, die sich damit am besten auskennen. Das spart enorm Rechenpower und macht das Modell schnell. Das 31B Dense-Modell hingegen nutzt alle seine Parameter gleichzeitig und liefert dafür die höchste Qualität. Beide großen Modelle bieten ein Kontextfenster von 256.000 Tokens — das entspricht ungefähr einem ganzen Buch.

Alle vier Modelle sprechen über 35 Sprachen fließend, wurden aber mit über 140 Sprachen trainiert.

Warum ist das relevant?

Drei Gründe, warum Gemma 4 eine echte Zeitenwende sein könnte:

1. Die Lizenz hat sich geändert — und das ist riesig. Bisherige Gemma-Modelle standen unter Googles eigener Lizenz, die bestimmte Einschränkungen hatte. Gemma 4 erscheint erstmals unter der Apache 2.0 Lizenz — dem Goldstandard für Open Source. Das bedeutet: Du darfst die Modelle kommerziell nutzen, verändern, in deine Produkte einbauen, und Google hat kein Mitspracherecht mehr. Für Startups, Forscher und Indie-Entwickler ist das ein Gamechanger.

2. Die Leistung ist beeindruckend. Das 31B-Modell belegt aktuell Platz 3 auf dem globalen Arena AI Text Leaderboard — einem der wichtigsten Benchmarks für KI-Modelle. In Mathe (AIME 2026) erreicht es 89,2%, beim Programmieren (LiveCodeBench v6) 80%, und seine Codeforces-ELO liegt bei 2.150 — das entspricht in etwa einem sehr starken menschlichen Wettbewerbsprogrammierer. Auch das 26B MoE-Modell ist nicht weit dahinter und holt Platz 6 im selben Ranking.

3. KI auf deinem Gerät — ohne Cloud. Die kleinen E2B- und E4B-Modelle sind die Grundlage für die nächste Generation von Gemini Nano — Googles KI, die direkt auf Android-Geräten läuft. Code, der für Gemma 4 geschrieben wird, funktioniert automatisch auf zukünftigen Gemini-Nano-4-Geräten. Das bedeutet: KI-Funktionen auf deinem Handy, die deine Daten nie verlassen. Für Datenschutz ein riesiger Vorteil.

Was sollte ich beachten? Grenzen und Realitätscheck

So beeindruckend die Zahlen auch sind — ein paar Dinge solltest du im Hinterkopf behalten:

Open Source heißt nicht „besser als alles andere". Gemma 4 ist stark, aber gegen die neuesten geschlossenen Modelle von OpenAI, Anthropic oder auch Googles eigenem Gemini stößt es an seine Grenzen. Manche Beobachter kritisieren, dass Gemma 4 hinter chinesischen Open-Source-Konkurrenten wie Qwen oder DeepSeek zurückfällt — zumindest in bestimmten Benchmarks.

Hardware-Anforderungen für die großen Modelle. Die kleinen E2B- und E4B-Modelle laufen problemlos auf Smartphones. Die großen 26B- und 31B-Modelle brauchen aber ordentlich GPU-Power. Das 31B Dense-Modell passt auf eine einzelne High-End-GPU — was für diese Leistungsklasse bemerkenswert ist — aber für den Durchschnitts-Laptop reicht das trotzdem nicht.

Multimodalität hat noch Lücken. Audio-Verarbeitung gibt es nur bei den kleinen Modellen (E2B und E4B). Video-Verarbeitung gibt es (noch) gar nicht. Wer also gehofft hat, YouTube-Videos von einem lokalen KI-Modell analysieren zu lassen, muss noch warten.

„Open Source" mit Sternchen. Gemma 4 veröffentlicht die Modellgewichte — das ist der wichtigste Teil. Aber die Trainingsdaten bleiben geheim. Du kannst das Modell nutzen und anpassen, aber du weißt nicht genau, womit es trainiert wurde. Echte Transparenz sieht anders aus — auch wenn Apache 2.0 definitiv ein großer Schritt in die richtige Richtung ist.

Fazit & Ausblick

Gemma 4 ist ein Statement. Google sagt damit: Wir glauben, dass offene KI-Modelle die Zukunft sind — und wir sind bereit, unsere besten Rezepte zu teilen. Die Kombination aus starker Leistung, echter Open-Source-Lizenz und Modellen, die vom Smartphone bis zum Server skalieren, macht Gemma 4 zu einem der wichtigsten KI-Releases des Jahres 2026.

Für Entwickler und Unternehmen bedeutet das: Die Einstiegshürde für eigene KI-Projekte sinkt drastisch. Für uns Nutzer bedeutet es: In den nächsten Monaten werden KI-Funktionen auf unseren Geräten spürbar besser — und sie funktionieren offline, ohne unsere Daten in eine Cloud schicken zu müssen. Die Frage ist nur, ob Google mit dieser Offenheit langfristig den Markt gewinnt — oder ob sie damit ihren eigenen Konkurrenten die besten Waffen in die Hand geben.


Du willst mehr zu KI, Indie Dev und digitalen Produkten? Abonniere den Newsletter — jede Woche neue Insights, kein Spam.

Oder lies weiter: Anthropic hat seinen eigenen Quellcode geleakt — was ist da passiert?

← Zurück zur Übersicht