
来自 Huhu 同学的帖子:https://meta.appinn.net/t/topic/84954
核心文件
weights.bin存储路径
该文件位于 Chrome 用户数据目录的 OptGuideOnDeviceModel 文件夹中:
%LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel~/Library/Application Support/Google/Chrome/OptGuideOnDeviceModel相关辅助文件
同级目录下还包含以下支持组件:
adapter_cache.bin、encoder_cache.binon_device_model_execution_config.pb(模型执行配置)_metadata/verified_contents.jsonC 盘空间告急……—
青小蛙的想法是…既然已经强塞了,那么为什么是 Gemini Nano 而不是 Gemma 4 呢?
你看,我去找了性能对比图:
| 项目 | Gemma 4 2B | Gemini Nano |
|---|---|---|
| 参数规模 | ~2B | 未公开(通常更小或高度压缩) |
| 模型定位 | 通用小模型 | 端侧任务模型 |
| MMLU(知识能力) | ~60 左右 | ~45–55(估计区间) |
| GSM8K(数学推理) | ~45–55 | ~20–35 |
| HumanEval(代码) | ~20–30 | 基本不可用 |
| 多轮对话 | ✔ 可用 | ✔ 但较弱 |
| 工具调用 / Agent | ✔ 支持 | ❌ 很弱 |
| 上下文长度 | 较长(取决实现) | 通常较短 |
| 延迟 | 中 | 低 |
| 功耗 | 略高 | 很低 |
| 运行环境 | 本地 / 浏览器 / PC | 手机 / 系统内置 |
况且,Gemini Nano 是2023年12月发布的,Gemma 4 是2026年4月2号发布的。
在大模型一天一个样的时代,你都已经强塞了,何不塞一个更强的?
但终究,不经过用户同意搞这么大的模型在电脑里,还是不好的。
原文:https://www.appinn.com/google-chrome-gemini-nano-4gb-ai-model-download/