Gemma 4 按参数计算,最强大的开源模型
专为高级推理和智能体工作流设计。Google DeepMind 的突破性开源模型家族 —— Apache 2.0 授权,前沿性能,可在自有硬件上运行。
Gemma 4 模型家族
从移动设备到开发者工作站 —— 针对每种部署目标优化的专属型号。
Gemma 4 E2B
针对边缘设备最大内存效率而设计。激活有效 2B 参数以节省 RAM 和电池。可在无网络环境下完全离线运行。
Gemma 4 E4B
更强大的边缘模型,支持音频和视觉理解。与 Android AICore 开发预览版和 ML Kit GenAI Prompt API 深度集成,适用于生产环境。
Gemma 4 26B MoE
混合专家模型,推理时仅激活 3.8B 参数,实现极高的 tokens-per-second 吞吐量。在 Arena AI 排行榜位列开源模型第 6 名。
Gemma 4 31B Dense
极致的原始质量和能力。微调和研究的首选模型。可在单张 80GB H100 GPU 上运行。目前是 Arena AI 文本排行榜全球第 3 名的开源模型。
Gemma 4 的卓越之处
六大突破性能力,让 Gemma 4 站在开源 AI 的前沿。
高级推理
多步规划和深度逻辑。在数学(AIME 2026: 89.2%)和指令跟随基准测试上取得重大突破,能够进行复杂问题分解。
智能体工作流
原生支持函数调用、结构化 JSON 输出和系统指令。构建可与工具和 API 交互、可靠执行复杂工作流的自主智能体。
代码生成
高质量离线代码生成。将你的工作站变为本地优先的 AI 代码助手。在 LiveCodeBench v6 竞技编程挑战中得分 80%。
多模态 —— 视觉、视频与音频
所有模型原生支持以可变分辨率处理图像和视频,擅长 OCR 和图表理解。E2B/E4B 还支持原生音频输入,用于语音识别。
支持 140+ 种语言
在超过 140 种语言上进行原生训练。为全球受众构建包容性、高性能应用,多语言理解能力卓越(MMMLU: 85.2%)。
超长上下文
无缝处理长格式内容。边缘模型支持 128K 上下文窗口;大型模型可扩展至 256K tokens —— 可在单次提示中传入整个代码仓库。
Gemma 4 模型家族
在行业标准数据集上进行评估,完整基准数据请查看模型卡片。