Familia de Modelos Gemma 4
Desde dispositivos móviles hasta estaciones de trabajo — un tamaño optimizado para cada destino de despliegue.
Gemma 4 E2B
Móvil · BordeDiseñado para máxima eficiencia de memoria en dispositivos de borde. Activa un footprint efectivo de 2B parámetros para preservar RAM y batería. Funciona totalmente offline.
- Params
- 2B efectivos activos
- Context
- 128K tokens
- Hardware
- Teléfonos, Raspberry Pi, Jetson Nano
Gemma 4 E4B
Móvil · BordeModelo de borde de mayor capacidad con comprensión de audio y video. Integra con Android AICore Developer Preview y ML Kit GenAI Prompt API para producción.
- Params
- 4B efectivos activos
- Context
- 128K tokens
- Hardware
- Android, iOS, GPUs de borde
Gemma 4 26B MoE
Estación de trabajo · #6 AbiertoModelo Mixture-of-Experts que activa solo 3.8B parámetros por inferencia para un rendimiento tokens-por-segundo excepcional. #6 modelo abierto en Arena AI.
- Params
- 26B total, 3.8B activos (MoE)
- Context
- 256K tokens
- Hardware
- GPU de consumo, H100 único
Gemma 4 31B Dense
Estación de trabajo · #3 AbiertoMáxima calidad y capacidad raw. El modelo principal para ajuste fino e investigación. Cabe en una sola GPU H100 de 80GB. Actualmente el #3 modelo abierto en Arena AI.
- Params
- 31B denso
- Context
- 256K tokens
- Hardware
- H100 único de 80GB (fp16)
Rendimiento en Benchmarks
Evaluado en conjuntos de datos estándar de la industria. Consulta la tarjeta del modelo para benchmarks adicionales.
| Benchmark | Tarea | 31B Dense | 26B MoE | Gemma 3 27B (gen. anterior) |
|---|---|---|---|---|
| Arena AI (Texto) | Preferencia humana | 1452 | 1441 | 1365 |
| MMMLU | Q&A multilingüe | 85.2% | 82.6% | 67.6% |
| MMMU Pro | Razonamiento multimodal | 76.9% | 73.8% | 49.7% |
| AIME 2026 | Matemáticas | 89.2% | 88.3% | 20.8% |
| LiveCodeBench v6 | Codificación competitiva | 80.0% | 77.1% | 29.1% |
| GPQA Diamond | Conocimiento científico | 84.3% | 82.3% | 42.4% |
| τ2-bench Agéntico | Uso agéntico de herramientas | 86.4% | 85.5% | 6.6% |