Lanzado el 2 de abril de 2026

Gemma 4 Byte a byte, los modelos de código abierto más capaces

Diseñado para razonamiento avanzado y flujos de trabajo agénticos. La familia de modelos abiertos de Google DeepMind — licencia Apache 2.0, rendimiento de frontera, funciona en tu hardware.

400M+
Descargas desde Gemma 1
100K+
Variantes comunitarias
#3
Modelo abierto en Arena AI
Capacidades Principales

Qué hace excepcional a Gemma 4

Seis capacidades revolucionarias que sitúan a Gemma 4 en la frontera de la IA de código abierto.

🧠

Razonamiento Avanzado

Planificación multi-paso y lógica profunda. Mejoras significativas en benchmarks de matemáticas (AIME 2026: 89.2%) y seguimiento de instrucciones, permitiendo descomposición de problemas complejos.

🤖

Flujos de Trabajo Agénticos

Llamada a funciones nativa, salida JSON estructurada e instrucciones de sistema. Construye agentes autónomos que interactúan con herramientas y APIs para ejecutar flujos de trabajo de forma confiable.

💻

Generación de Código

Generación de código offline de alta calidad. Convierte tu estación de trabajo en un asistente de código local. Puntuación del 80% en LiveCodeBench v6 de codificación competitiva.

👁️

Multimodal — Visión, Video y Audio

Todos los modelos procesan de forma nativa imágenes y video con resoluciones variables, destacando en OCR y comprensión de gráficos. E2B/E4B también admiten entrada de audio nativa para reconocimiento de voz.

🌍

+140 Idiomas

Entrenado de forma nativa en más de 140 idiomas. Construye aplicaciones inclusivas y de alto rendimiento para una audiencia global con comprensión multilingüe de vanguardia (MMMLU: 85.2%).

📄

Contexto Ultralargo

Procesa contenido extenso sin problemas. Los modelos de borde tienen una ventana de contexto de 128K; los más grandes llegan a 256K tokens, permitiendo pasar repositorios completos en un solo prompt.

Rendimiento en Benchmarks

Familia de Modelos Gemma 4

Evaluado en conjuntos de datos estándar de la industria. Consulta la tarjeta del modelo para benchmarks adicionales.

85.2%
MMMLU
89.2%
AIME 2026
80.0%
LiveCodeBench v6
1452
Arena AI Score
Descargar Pesos del Modelo →
Gemma 4 31B vs Gemma 3 27B
MMMLU
Prev: 67.6% G4: 85.2%
AIME 2026
Prev: 20.8% G4: 89.2%
LiveCodeBench v6
Prev: 29.1% G4: 80%
GPQA Diamond
Prev: 42.4% G4: 84.3%
🚀

Comenzar — Gemma 4

Evaluado en conjuntos de datos estándar de la industria. Consulta la tarjeta del modelo para benchmarks adicionales.

Comenzar →