#人工智能 谷歌基于 Gemini 3 推出开放模型 Gemma 4 系列,体积更小可在智能手机上运行,但提供类似 Kimi-K2.5 的智能。Gemma 4 系列基于 Apache 2.0 许可证发布,提供四种不同的权重,其中 E2B/E4B 均为边缘设备优化,可在智能手机等消费级设备上运行。查看全文:https://ourl.co/112467
谷歌日前面向全球人工智能社区发布 Gemma 4 系列模型,该系列模型是谷歌基于 Gemini 3 研究技术打造的全新开放权重模型,专门为先进推理和智能体工作流设计。
Gemma 4 系列模型在参数效率、上下文长度、多模态能力以及原生工具调用方面实现了代际跃升,侧重点是模型体积更小,让用户可以在本地设备上运行模型。
另外谷歌还将 Gemma 4 系列模型切换为 Apache 2.0 开源许可证,该许可证相对来说要求更加宽松,完全允许商业性使用、微调和部署等。
下面是 Gemma 4 不同的权重:
- Gemma 4 E2B:总参数规模为 5.1B,激活参数为 2.3B,针对超低功耗设备而设计,可在智能手机和树莓派等设备上实现近乎零延迟的体验
- Gemma 4 E4B:总参数规模为 8B,激活参数为 4.5B,同样针对边缘设备而优化,但支持实时文字对话和音视频处理等
- Gemma 4 26B A4B MoE:总参数规模为 25.2B~26B,推理时的激活参数为 3.8B~4B,兼顾高效运行与吞吐量,适合消费级 GPU 与笔记本电脑部署
- Gemma 4 31B Dense:纯稠密模型,总参数规模约为 30.7B~31B,追求更高品质的推理,单张 80GB H100 GPU 即可实现无量化运行,量化后亦可在消费级硬件上部署
不同权重的特点如下:
边缘模型如 E2B 和 E4B 上下文窗口为 128K,26B 与 31B 版则支持最高 256K,这可以确保在一次任务中完整分析代码库或保留复杂操作历史。
所有模型都支持多模态输入,包括文本输入、视频输入和图片输入等,边缘模型还额外支持音频输入,可实现在智能手机等设备上进行实时语音理解。
谷歌已经与高通和联发科等芯片制造商合作,针对边缘设备进行专门的优化,Gemma 4 不仅可以在高通和联发科芯片上运行,对内存和电量的消耗也较 Gemma 3 显著降低。
模型能力上媲美 Kimi-K2.5:
从谷歌发布的测试报告来看,Gemma 4 系列 31B 等权重能力上已经能够媲美智谱 GLM-5 和月之暗面的 Kimi-K2.5,但 Gemma 4 的模型尺寸更小。
例如 GLM-5 的总参数规模为 754B,Kimi-K2.5 的总参数规模为 1100B,谷歌能在仅 31B 的参数规模上实现类似能力,可见谷歌的优化力度确实非常大。
谷歌如此力度的优化最终目的还是为安卓设备 AI 化做好准备,后续新推出的安卓设备可能都会由 Gemma 系列模型提供 AI 支持,所以推出这种小尺寸高智能模型是必要的。
