谷歌开源发布Gemma 4系列模型 体积更小但提供类似Kimi-K2.5的智能
好的,我现在需要帮用户总结一篇文章的内容,控制在100字以内,而且不需要特定的开头。首先,我得仔细阅读用户提供的文章内容。 文章主要讲的是谷歌推出了Gemma 4系列模型,基于Gemini 3技术,体积更小,可以在智能手机等设备上运行。模型有四种不同的权重,分别针对不同的设备和应用场景。此外,谷歌使用了Apache 2.0许可证,允许商业使用和微调。 接下来,我需要提取关键信息:Gemma 4系列、优化体积、支持边缘设备、四种权重、多模态输入、与芯片制造商合作、能力媲美Kimi-K2.5、目标是为安卓设备AI化做准备。 然后,我要把这些信息浓缩到100字以内。要注意用简洁的语言表达清楚每个要点,同时保持逻辑连贯。 最后,检查字数是否符合要求,并确保没有遗漏重要信息。 </think> 谷歌推出Gemma 4系列模型,基于Gemini 3技术优化体积,在智能手机等边缘设备上运行。提供四种权重:E2B/E4B针对低功耗设备优化;26B/31B适合消费级硬件。支持多模态输入及实时语音处理,与高通、联发科合作优化性能。模型能力媲美Kimi-K2.5,在更小尺寸下实现高效推理。 2026-4-3 01:40:25 Author: www.landiannews.com(查看原文) 阅读量:6 收藏

Ad

Ad

#人工智能 谷歌基于 Gemini 3 推出开放模型 Gemma 4 系列,体积更小可在智能手机上运行,但提供类似 Kimi-K2.5 的智能。Gemma 4 系列基于 Apache 2.0 许可证发布,提供四种不同的权重,其中 E2B/E4B 均为边缘设备优化,可在智能手机等消费级设备上运行。查看全文:https://ourl.co/112467

谷歌日前面向全球人工智能社区发布 Gemma 4 系列模型,该系列模型是谷歌基于 Gemini 3 研究技术打造的全新开放权重模型,专门为先进推理和智能体工作流设计。

Gemma 4 系列模型在参数效率、上下文长度、多模态能力以及原生工具调用方面实现了代际跃升,侧重点是模型体积更小,让用户可以在本地设备上运行模型。

另外谷歌还将 Gemma 4 系列模型切换为 Apache 2.0 开源许可证,该许可证相对来说要求更加宽松,完全允许商业性使用、微调和部署等。

谷歌开源发布Gemma 4系列模型 体积更小但提供类似Kimi-K2.5的智能

下面是 Gemma 4 不同的权重:

  • Gemma 4 E2B:总参数规模为 5.1B,激活参数为 2.3B,针对超低功耗设备而设计,可在智能手机和树莓派等设备上实现近乎零延迟的体验
  • Gemma 4 E4B:总参数规模为 8B,激活参数为 4.5B,同样针对边缘设备而优化,但支持实时文字对话和音视频处理等
  • Gemma 4 26B A4B MoE:总参数规模为 25.2B~26B,推理时的激活参数为 3.8B~4B,兼顾高效运行与吞吐量,适合消费级 GPU 与笔记本电脑部署
  • Gemma 4 31B Dense:纯稠密模型,总参数规模约为 30.7B~31B,追求更高品质的推理,单张 80GB H100 GPU 即可实现无量化运行,量化后亦可在消费级硬件上部署

不同权重的特点如下:

边缘模型如 E2B 和 E4B 上下文窗口为 128K,26B 与 31B 版则支持最高 256K,这可以确保在一次任务中完整分析代码库或保留复杂操作历史。

所有模型都支持多模态输入,包括文本输入、视频输入和图片输入等,边缘模型还额外支持音频输入,可实现在智能手机等设备上进行实时语音理解。

谷歌已经与高通和联发科等芯片制造商合作,针对边缘设备进行专门的优化,Gemma 4 不仅可以在高通和联发科芯片上运行,对内存和电量的消耗也较 Gemma 3 显著降低。

模型能力上媲美 Kimi-K2.5:

从谷歌发布的测试报告来看,Gemma 4 系列 31B 等权重能力上已经能够媲美智谱 GLM-5 和月之暗面的 Kimi-K2.5,但 Gemma 4 的模型尺寸更小。

例如 GLM-5 的总参数规模为 754B,Kimi-K2.5 的总参数规模为 1100B,谷歌能在仅 31B 的参数规模上实现类似能力,可见谷歌的优化力度确实非常大。

谷歌如此力度的优化最终目的还是为安卓设备 AI 化做好准备,后续新推出的安卓设备可能都会由 Gemma 系列模型提供 AI 支持,所以推出这种小尺寸高智能模型是必要的。


文章来源: https://www.landiannews.com/archives/112467.html
如有侵权请联系:admin#unsafe.sh