阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行
好的,我现在需要帮用户总结这篇文章的内容,控制在100个字以内。首先,我得仔细阅读文章,抓住主要信息。 文章讲的是阿里巴巴通义千问团队推出了新的小模型,参数从0.8B到9B不等。这些模型的核心理念是用更少的算力实现更高的智能,不再只追求参数规模,而是优化架构、数据和强化学习。他们还提到了量化版本可以在低配置设备上运行。 接下来,我需要把这些信息浓缩成一句话。要突出模型的参数范围、核心理念以及量化版本的特点。同时,要确保不超过100个字。 可能的结构是:阿里巴巴推出小模型系列,参数从0.8B到9B,优化架构和数据以提升性能,并提供量化版本支持低配置设备。 检查一下字数是否合适,确保信息完整且简洁。 </think> 阿里巴巴通义千问团队推出Qwen3.5小型系列模型,参数规模从0.8B到9B不等,通过优化架构、数据和强化学习提升性能,并提供量化版本支持低配置设备运行。 2026-3-3 00:30:6 Author: www.landiannews.com(查看原文) 阅读量:8 收藏

推广

推广

#人工智能 阿里巴巴通义千问团队继续推出小模型,最低仅 0.8B 参数适合在边缘设备上部署,而 9B 参数版智能甚至超过 120B 参数的开源同行。这些中型 / 小型模型的核心理念都是以更少的算力实现更高的智能,即不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。查看全文:https://ourl.co/111984

早前阿里巴巴通义千问团队就推出 Qwen3.5 中型系列模型,中型模型的参数规模在 35B 左右,但在多项基准测试中可以紧追或超过 235B 的通义千问 Qwen3 系列模型。

现在通义千问团队继续推出小型系列模型,这些模型的核心理念都是以更少的算力实现更高的智能,也就是不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。

阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

最新推出的小型模型包括:

Qwen3.5-0.8B 版:参数规模仅 8 亿,小巧快速非常适合边缘设备

Qwen3.5-4B 版:参数规模为 40 亿,为轻量级智能体提供强大的多模态支持

Qwen3.5-9B 版:参数规模为 90 亿,更加紧凑的模型,紧追大型模型的能力但算力要求更低

还会推出规模更小的基础模型:

通义千问团队还预告称后续还会推出基础模型,这些基础模型的参数规模更小可以在硬件配置更低的设备上运行,不过暂时还不清楚这些参数规模更小的基础模型何时发布。

量化团队 Unsloth AI 也同步发布 Qwen3.5 小型系列模型的量化版本,经过量化后的版本可在仅 6GB (显存或内存) 的设备上运行,但实际 TPS 有多少还不清楚。

相关链接:

HuggingFace:https://huggingface.co/collections/Qwen/qwen35

ModelScope:https://modelscope.cn/collections/Qwen/Qwen35

GGUFs 量化版本:https://huggingface.co/collections/unsloth/qwen35

基准测试对比:

注:标题中所说的超过 120B 同行指的是 GPT-OSS-120B 版。

阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行


文章来源: https://www.landiannews.com/archives/111984.html
如有侵权请联系:admin#unsafe.sh