Gemma 4 Byte a byte, los modelos de código abierto más capaces
Diseñado para razonamiento avanzado y flujos de trabajo agénticos. La familia de modelos abiertos de Google DeepMind — licencia Apache 2.0, rendimiento de frontera, funciona en tu hardware.
Familia de Modelos Gemma 4
Desde dispositivos móviles hasta estaciones de trabajo — un tamaño optimizado para cada destino de despliegue.
Gemma 4 E2B
Diseñado para máxima eficiencia de memoria en dispositivos de borde. Activa un footprint efectivo de 2B parámetros para preservar RAM y batería. Funciona totalmente offline.
Gemma 4 E4B
Modelo de borde de mayor capacidad con comprensión de audio y video. Integra con Android AICore Developer Preview y ML Kit GenAI Prompt API para producción.
Gemma 4 26B MoE
Modelo Mixture-of-Experts que activa solo 3.8B parámetros por inferencia para un rendimiento tokens-por-segundo excepcional. #6 modelo abierto en Arena AI.
Gemma 4 31B Dense
Máxima calidad y capacidad raw. El modelo principal para ajuste fino e investigación. Cabe en una sola GPU H100 de 80GB. Actualmente el #3 modelo abierto en Arena AI.
Qué hace excepcional a Gemma 4
Seis capacidades revolucionarias que sitúan a Gemma 4 en la frontera de la IA de código abierto.
Razonamiento Avanzado
Planificación multi-paso y lógica profunda. Mejoras significativas en benchmarks de matemáticas (AIME 2026: 89.2%) y seguimiento de instrucciones, permitiendo descomposición de problemas complejos.
Flujos de Trabajo Agénticos
Llamada a funciones nativa, salida JSON estructurada e instrucciones de sistema. Construye agentes autónomos que interactúan con herramientas y APIs para ejecutar flujos de trabajo de forma confiable.
Generación de Código
Generación de código offline de alta calidad. Convierte tu estación de trabajo en un asistente de código local. Puntuación del 80% en LiveCodeBench v6 de codificación competitiva.
Multimodal — Visión, Video y Audio
Todos los modelos procesan de forma nativa imágenes y video con resoluciones variables, destacando en OCR y comprensión de gráficos. E2B/E4B también admiten entrada de audio nativa para reconocimiento de voz.
+140 Idiomas
Entrenado de forma nativa en más de 140 idiomas. Construye aplicaciones inclusivas y de alto rendimiento para una audiencia global con comprensión multilingüe de vanguardia (MMMLU: 85.2%).
Contexto Ultralargo
Procesa contenido extenso sin problemas. Los modelos de borde tienen una ventana de contexto de 128K; los más grandes llegan a 256K tokens, permitiendo pasar repositorios completos en un solo prompt.
Familia de Modelos Gemma 4
Evaluado en conjuntos de datos estándar de la industria. Consulta la tarjeta del modelo para benchmarks adicionales.
Comenzar — Gemma 4
Evaluado en conjuntos de datos estándar de la industria. Consulta la tarjeta del modelo para benchmarks adicionales.
Comenzar →