FAQ

Preguntas Frecuentes

Todo lo que necesitas saber sobre Gemma 4.

Gemma 4 se publica bajo la licencia de código abierto Apache 2.0. Esto proporciona flexibilidad completa para desarrolladores: puedes usarlo comercialmente, modificarlo y desplegarlo en cualquier lugar sin barreras restrictivas.

Los modelos E2B y E4B se ejecutan en dispositivos móviles (teléfonos Android, Raspberry Pi, NVIDIA Jetson Orin Nano). Los modelos 26B MoE y 31B Dense funcionan en GPUs de gaming para consumidores (cuantizados) o en una sola GPU H100/A100 de 80GB (fp16).

Gemma 4 es un modelo de pesos abiertos que puedes descargar y ejecutar en tu propio hardware, construido con la misma investigación que Gemini 3. Gemini es el modelo propietario de Google al que se accede via API. Gemma 4 es ideal para privacidad, uso offline y ajuste fino.

Gemma 4 31B ocupa el puesto #3 en el ranking de modelos abiertos de Arena AI y supera a modelos 20 veces su tamaño. Aunque modelos cerrados como GPT-4o pueden liderar en capacidad bruta, Gemma 4 ofrece un rendimiento por parámetro sin igual entre modelos que puedes ejecutar localmente.

El 26B MoE (Mixture of Experts) activa solo 3.8B parámetros por inferencia, siendo mucho más rápido con menor latencia. El 31B Dense activa todos los parámetros, ofreciendo la mayor calidad bruta y siendo la mejor base para ajuste fino.

Sí. Todos los modelos Gemma 4 procesan de forma nativa imágenes y video. Los modelos de borde E2B y E4B también admiten entrada de audio nativa para reconocimiento y comprensión del habla.

Gemma 4 está entrenado de forma nativa en más de 140 idiomas, obteniendo una puntuación del 85.2% en MMMLU (preguntas y respuestas multilingüe). Los datos de entrenamiento abarcan contenido lingüístico diverso para una sólida comprensión multilingüe.

Los pesos del modelo están disponibles en Hugging Face (colección google/gemma-4), Kaggle, Ollama (ollama pull gemma4), LM Studio y Docker Hub (ai/gemma4). También puedes probarlo al instante en Google AI Studio (26B y 31B).

💬

Recursos Oficiales