Mit Gemma 4 bringt Google eine neue Generation offener KI-Modelle auf den Markt – und setzt dabei ein starkes Signal für Entwickler weltweit. Erstmals stehen die Modelle unter der kommerziell nutzbaren Apache-2.0-Lizenz. Gleichzeitig basieren sie auf derselben Technologie wie Gemini 3. Die Modellfamilie deckt ein breites Spektrum ab – von Smartphones bis zu Hochleistungsservern. Damit kombiniert Google Leistung, Flexibilität und echte Offenheit wie nie zuvor.
Inhalt
- 1 Das Wichtigste in Kürze
- 2 Was ist Gemma 4 von Google?
- 3 Open Source neu gedacht: Apache-2.0 als strategischer Kurswechsel
- 4 Vier Modelle für jede Hardware-Klasse
- 5 Leistungsstarke Benchmarks trotz kleinerer Modelle
- 6 Agentische Workflows und neue Fähigkeiten
- 7 Edge bis Server: Flexible Hardware-Unterstützung
- 8 Verfügbarkeit, Tools und Entwickler-Ökosystem
- 9 Fazit
Das Wichtigste in Kürze
- Vier Modelle: E2B, E4B, 26B MoE und 31B Dense decken alle Einsatzbereiche ab
- Erste Veröffentlichung unter Apache-2.0-Lizenz mit voller kommerzieller Freiheit
- Basierend auf derselben Technologie wie Gemini 3
- Starke Verbesserungen bei Reasoning, Mathematik und agentischen Workflows
- Einsatz von Edge-Geräten bis hin zu Server-Infrastruktur möglich
Was ist Gemma 4 von Google?
Gemma 4 ist eine offene KI-Modellfamilie von Google mit vier Varianten, die erstmals unter der Apache-2.0-Lizenz veröffentlicht wurde und leistungsstarke Funktionen wie Reasoning, Multimodalität und agentische Workflows bietet.
Open Source neu gedacht: Apache-2.0 als strategischer Kurswechsel
Mit Gemma 4 vollzieht Google einen entscheidenden Wandel im Umgang mit offenen KI-Modellen. Frühere Versionen waren durch eine restriktivere Lizenz eingeschränkt. Nun setzt Google auf die Apache-2.0-Lizenz. Diese erlaubt kommerzielle Nutzung ohne große Einschränkungen. Entwickler erhalten vollständige Kontrolle über ihre Daten. Auch Infrastruktur und Modellanpassungen sind frei gestaltbar. Das stärkt Innovation und Wettbewerb gleichermaßen.
Gleichzeitig positioniert sich Google stärker im Open-Source-Ökosystem. Besonders Unternehmen profitieren von der neuen Flexibilität. Denn sie können Modelle direkt produktiv einsetzen. Dieser Schritt macht Gemma 4 zu einer der relevantesten offenen KI-Initiativen aktuell.
Vier Modelle für jede Hardware-Klasse
Gemma 4 besteht aus vier unterschiedlichen Modellgrößen. Diese decken verschiedene Leistungsanforderungen ab. Die kleinen Varianten sind für Edge-Geräte optimiert. Die großen Modelle richten sich an leistungsstarke Systeme. Dadurch entsteht eine durchgängige Skalierung. Entwickler können das passende Modell wählen. Gleichzeitig bleibt die Architektur konsistent.
Alle Modelle unterstützen komplexe Aufgaben. Dazu zählen logisches Denken und agentische Abläufe. Besonders hervorzuheben ist die Vielseitigkeit. Von Smartphone bis Server ist alles möglich. Das reduziert die Einstiegshürde erheblich.
| Modell | E2B | E4B | 26B MoE | 31B Dense |
|---|---|---|---|---|
| Aktive Parameter | 2 Mrd. | 4 Mrd. | 3,8 Mrd. aktiv | — |
| Architektur | — | — | MoE | Dense |
| Kontextfenster | 128K | 128K | bis 256K | bis 256K |
| Ziel-Hardware | Smartphone, IoT | Smartphone, IoT | PCs, GPUs | Workstations |
| Offline-Betrieb | Ja | Ja | Ja | Ja |
| Vision | Ja | Ja | Ja | Ja |
| Audio | Ja | Ja | Nein | Nein |
| Besonderheit | Effizienz | Effizienz | Latenzoptimiert | Maximale Qualität |
Leistungsstarke Benchmarks trotz kleinerer Modelle
Gemma 4 zeigt beeindruckende Benchmark-Ergebnisse. Das 31B-Modell erreicht Spitzenwerte im Arena-AI-Ranking. Es liegt auf Platz drei unter offenen Modellen. Das 26B-Modell erreicht Platz sechs. Besonders bemerkenswert ist die Effizienz. Die Modelle schlagen teilweise Systeme, die 20-mal größer sind. Das bedeutet weniger Hardwarebedarf. Gleichzeitig bleibt die Leistung hoch.
Auch in wissenschaftlichen Benchmarks überzeugen die Modelle. Im GPQA-Diamond-Test erreicht das 31B-Modell über 85 Prozent. Damit liegt es fast gleichauf mit führenden Modellen. Zudem benötigt es weniger Rechenleistung. Das macht es besonders attraktiv für Entwickler. Effizienz wird hier zum zentralen Vorteil.
| Benchmark | 31B | 26B | E4B | E2B | Gemma 3 |
|---|---|---|---|---|---|
| Arena AI | 1452 | 1441 | — | — | 1365 |
| MMLU | 85.2% | 82.6% | 69.4% | 60.0% | 67.6% |
| MMMU | 76.9% | 73.8% | 52.6% | 44.2% | 49.7% |
| AIME | 89.2% | 88.3% | 42.5% | 37.5% | 20.8% |
| Code | 80.0% | 77.1% | 52.0% | 44.0% | 29.1% |
| GPQA | 84.3% | 82.3% | 58.6% | 43.4% | 42.4% |
Agentische Workflows und neue Fähigkeiten
Gemma 4 geht weit über klassische Chat-Funktionen hinaus. Die Modelle unterstützen Function Calling direkt. Dadurch können externe Tools genutzt werden. Auch strukturierter JSON-Output ist möglich. Das erleichtert die Integration in Systeme. Zudem gibt es System-Instruktionen. Diese helfen bei der Steuerung von Aufgaben. Besonders wichtig sind agentische Workflows.
Damit können autonome Systeme entstehen. Diese interagieren mit APIs und Tools. Das eröffnet neue Anwendungsfelder. Beispielsweise in Automatisierung und Softwareentwicklung. Gleichzeitig verbessern sich mathematische Fähigkeiten deutlich. Auch komplexe mehrstufige Aufgaben werden besser gelöst.
Edge bis Server: Flexible Hardware-Unterstützung
Ein großer Vorteil von Gemma 4 ist die Hardware-Flexibilität. Die kleinen Modelle laufen auf Smartphones. Auch Geräte wie Raspberry Pi oder Jetson Orin Nano werden unterstützt. Das ermöglicht KI direkt am Edge. Gleichzeitig sind alle Modelle offline nutzbar. Das verbessert Datenschutz und Latenz. Die großen Modelle laufen auf leistungsstarker Hardware. Dazu zählen GPUs und Workstations.
Das 31B-Modell passt sogar auf eine einzelne NVIDIA H100 GPU. Zudem sind quantisierte Versionen verfügbar. Diese laufen auf Consumer-Grafikkarten. Auch AMD-Hardware wird unterstützt. Darüber hinaus gibt es TPU-Support. Damit ist Gemma 4 extrem vielseitig einsetzbar.
Verfügbarkeit, Tools und Entwickler-Ökosystem
Gemma 4 ist sofort verfügbar. Entwickler finden die Modelle auf Plattformen wie Hugging Face, Kaggle und Ollama. Für Experimente steht Google AI Studio bereit. Edge-Modelle werden über die AI Edge Gallery unterstützt. Auch die Tool-Unterstützung ist umfangreich. Dazu gehören Transformers, vLLM und llama.cpp. Weitere Tools sind MLX, Keras und NVIDIA NeMo.
Fine-Tuning ist ebenfalls möglich. Entwickler können Google Colab oder Vertex AI nutzen. Auch lokale GPUs sind geeignet. Für den produktiven Einsatz bietet Google Cloud Lösungen. Dazu zählen Cloud Run und GKE. Damit ist eine Skalierung problemlos möglich.
Fazit
Gemma 4 markiert einen echten Wendepunkt für offene KI. Google kombiniert leistungsstarke Modelle mit echter Lizenzfreiheit. Gleichzeitig überzeugt die Effizienz gegenüber deutlich größeren Systemen. Die breite Hardware-Unterstützung macht die Modelle extrem flexibel. Für Entwickler entsteht damit eine neue Grundlage für Innovation. Wer moderne KI einsetzen will, kommt an Gemma 4 kaum vorbei.
Quellen:
- Studie 1: Ad-hoc-News-Analyse zu Gemma 4 – Detaillierte Benchmark-Vergleiche zeigen überlegene Reasoning-Fähigkeiten und Agenten-Workflows auf lokaler Hardware unter Apache-2.0-Lizenz.
- Studie 2: Pillitteri-Leitfaden 2026 – Umfassender Vergleich mit Llama 4 und Qwen 3.5, ELO-Sprung im Coding von 110 auf 2150 und multimodale Features in 140+ Sprachen.
- Studie 3: Mind-Verse-Forschung – Erweiterte logische Denkfähigkeiten in Mathe-Benchmarks und hohe Intelligenz pro Parameter für On-Device-Anwendungen.
Der Autor Nico Nuss beschäftigt sich seit 2001 mit den Themen Mobile Computing und Automation Software. Auf Grund seiner Erfahrung und dem starken Interesse für Zukunftstechnologien gilt seine Aufmerksamkeit den Themen Robotik und AI.











