Google开源最强模型!Apache 2.0协议

Google 的开源新动作

Google 今天发布了 Gemma 4,这是迄今为止最强的开源模型。更关键的是:它用了 Apache 2.0 协议,企业可以放心商用。

这是 Google 开源策略的重大转变。从限制性协议到完全开放,说明他们意识到开源生态的重要性。开源不是做慈善,是抢开发者。

核心数据:四个版本,覆盖全场景

Gemma 4 提供四个版本,覆盖从服务器到手机的全场景:

  • 31B:310 亿参数,旗舰版本,需要 H100 运行,适合服务器和工作站
  • 26B MoE:260 亿总参数,激活参数仅 38 亿,高效推理
  • 4B:40 亿参数,端侧部署,适合移动设备
  • 2B:20 亿参数,手机和嵌入式设备可离线运行

最大的 31B 版本,数学竞赛 AIME 2026 拿下 89.2%,编程测试 LiveCodeBench 80.0%,Codeforces ELO 2150。GPQA Diamond 科学推理 84.3%,MMLU Pro 85.2%。

这意味着什么?31B 参数达到了头部开源模型的水平。用小参数跑出高性能,这就是 Google 说的”Intelligence-per-parameter”——每个参数的智商都榨干了。

这不是简单的参数优化,而是架构和训练方法的全面升级。Google 把 Gemini 3 的技术下放到开源模型,让小模型也能有强性能。

与上一代对比:质的飞跃

Gemma 3 27B 的数学能力是 20.8%,Gemma 4 31B 直接跳到 89.2%。Agent 工具调用从 6.6% 提升到 86.4%。编程能力从 29.1% 提升到 80.0%。

这不是小升级,是质的飞跃。一年时间,Google 把 Gemma 从”还能用”变成了”很强”。这种进步幅度在开源模型中很少见。

为什么提升这么大?Google 引入了新的训练方法和架构优化。他们把 Gemini 的技术栈迁移到开源模型,让 Gemma 4 继承了 Gemini 3 的能力。这是技术溢出效应。

最大亮点:Apache 2.0 协议

之前的 Gemma License 限制商用,企业用起来有顾虑。现在换成 Apache 2.0,完全自由商用,不用担心法律风险。这是最大的亮点。

Google 为什么改协议?三个原因。

  • 中国开源模型的压力:Qwen、DeepSeek 都是 Apache 2.0,Google 不跟进就会失去开发者
  • 开源生态的重要性:开发者越来越看重开源协议,企业不敢用限制性协议的模型
  • 抢开发者:开源不是做慈善,是抢开发者

这是 Google 从 2024 年的限制性协议,到 2026 年的 Apache 2.0,说明他们意识到开源生态的重要性。开源生态决定了模型的长期生命力。

第二亮点:专为 Agent 设计

Gemma 4 明确声明”purpose-built for agentic workflows”。这意味着它从设计之初就考虑了 Agent 场景。这是 Gemma 4 的重要定位。

  • 原生支持 Function Calling:之前的开源模型需要自己适配,Gemma 4 开箱即用
  • 原生支持 System Prompt:更结构化的对话控制
  • 工具调用能力强:τ2-bench 从 6.6% 提升到 86.4%

对于 Agent 开发者,这意味着更低的开发成本和更好的性能。如果你在开发 Agent 应用,Gemma 4 是一个值得尝试的选择。原生支持意味着你不需要额外适配,直接调用即可。

第三亮点:端侧部署能力

Google 和高通、联发科做了芯片级合作:

  • 4B 和 2B 版本可以在手机上离线运行
  • 量化后消费级显卡能跑小模型
  • 31B 需要一张 80GB 的 H100 才能运行全精度

MoE 版本更厉害。26B 总参数,激活参数只有 3.8B。推理成本接近 4B 模型,性能接近 31B。性价比很高。这是 Gemma 4 的重要差异化优势。

对于没有大规模算力的团队,这是个好消息。你可以选择小参数版本,门槛降低很多。这让更多团队能用上强模型。

与中国模型对比

性能略逊于 Qwen 3.5、DeepSeek。这些中国模型参数更大、性能更强。Qwen 3.5 有 397B 参数,DeepSeek-R1 推理能力更强。

但 Gemma 4 的优势是端侧部署和商用友好度。Apache 2.0 协议让企业放心用,小模型端侧部署让手机能跑。这是差异化竞争策略。

  • 性能:略逊于 Qwen 3.5、DeepSeek
  • 端侧部署:Gemma 4 小模型更强
  • 商用友好度:都是 Apache 2.0
  • 中文能力:Qwen 更强

适用场景

推荐 Gemma 4 的场景:

  • 端侧 AI 应用:手机离线 Agent、嵌入式设备(用4B或2B版本)
  • 企业商业化项目:Apache 2.0 无商用限制
  • Agent 开发:原生支持 Function Calling
  • 资源受限环境:小模型可在消费级硬件运行

不推荐 Gemma 4 的场景:

  • 追求极致性能:Qwen 3.5、DeepSeek 更强
  • 中文为主:Qwen 中文能力更强
  • 大规模部署:中国开源模型生态更成熟

我的看法

Gemma 4 的核心价值不是最强性能,而是 Apache 2.0 + 端侧部署。对于需要在手机上跑 AI 的开发者,选择 4B 或 2B 版本是个好消息。对于需要商用友好的企业,Apache 2.0 也是个好消息。

Google 终于意识到开源的重要性了。从封闭到开放,从限制到自由,这是正确的方向。开源生态决定了模型的长期生命力。开源不是做慈善,是抢开发者。Google 终于懂了。这才是正确的策略。这才是正确的方法。这很重要。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注