#人工智能 AMD 推出 OpenClaw 参考主机:RyzenClaw 和 RadeonClaw,均支持在本地运行 AI 模型让用户掌握数据自治和隐私。RyzenClaw 采用 AI MAX+ 395 芯片和 128GB 内存,RadeonClaw 还需要单独购买 R9700 工作站显卡,AMD 也坦言这些主机仅面向尝试在本地运行 AI 智能体的工程师和早期采用者。查看全文:https://ourl.co/112183
芯片制造商 AMD 目前正在推动不依赖云端的人工智能愿景,即 AMD 希望开发者能够在本地运行大型语言模型,而不是像当前这样主要依靠调用云端的 AI 模型。
为此 AMD 推出 OpenClaw 参考主机:RyzenClaw 和 RadeonClaw,这两款参考主机均附带强大的 AI 算力,可以在本地运行 AI 模型,当然代价就是这些参考主机的价格非常高。
这属于 AMD 智能体计算机 (Agent Computer) 计划的一部分,智能体计算机计划认为 AI 的未来不应该局限在远程数据中心,而是应该让用户掌握自己的数据和计算环境,让本地 AI 助手长期运行、降低云端 AI 依赖和订阅负担,当然还有缓解用户的隐私忧虑。
参考主机 1:RyzenClaw
RyzenClaw 方案围绕 AMD Ryzen AI Max + 处理器构建,配备 128GB 内存,AMD 建议将其中约 96GB 作为可变显存分配,用以保证大型语言模型推理效率。
在这个配置下,Qwen 3.5 35B A3B 模型的生成速度约为每秒 45 个 Token,处理 10K Tokens 输入大约需要 19.5 秒,模型支持约 260K 上下文窗口,可以用于多智能体工作流或智能体集群实验环境。
AMD 称 RyzenClaw 方案最多可以同时运行 6 个本地 AI 智能体,这在非数据中心级系统里颇具代表性。
参考主机 2:RadeonClaw
这个方案是将算力重心转到独立的 GPU --- Radeon AI PRO R9700,这款工作站级显卡提供 32GB 专用显存,可以显著提升推理吞吐量。
在运行 Qwen 3.5 35B A3B 时,其生成速度约为每秒 120 个 Token,处理 10K Tokens 输入的时间约为 4.4 秒。
不过这种方案也存在性能方面的增益取舍:最大上下文窗口从 260K 缩减到 190K,并发智能体数量降至 2 个,这也凸显 AMD 试图提供不同调优路径的思路,即开发者可以根据自身需求,在更大上下文窗口和更高推理速度之间做出权衡。
但都不是普通消费者能负担得起的:
无论是 RyzenClaw 还是 RadeonClaw,都不是面向普通消费者的入门配置,例如 RyzenClaw,这台设备搭载 Ryzen AI Max+395 芯片并提供 128GB 内存,起步价格就要 2700 美元以上 (非官方价格)。
如果选择 RadeonClaw 那价格还要更高,因为还需要单独购买 Radeon AI PRO R9700 工作站显卡,这张显卡的零售价就有 1299 美元。
AMD 也坦言,OpenClaw 参考主机的主要目标用户就是尝试在本地运行 AI 智能体的工程师和早期采用者,并非主流 PC 用户。




