AI-NEWS · 2026年 4月 21日

阿里开源 Qwen3.6-35B:小模型也能“开挂”

阿里又放出一个“小钢炮”:Qwen3.6-35B

昨晚(4 月 19 日)晚,阿里通义千问团队搞了个大动作,直接把 Qwen3.6 系列里的“中型选手”——Qwen3.6-35B-A3B 开源了。说实话,看到这个参数名的时候,我第一反应是:这就完了?

结果跑了一圈实测,这玩意儿有点东西。

参数这么“省”,脑子这么“活”

这模型最逗的地方在于“偷鸡”。总参数量 350 亿,看着挺唬人,但实际干活的时候,它只激活 30 亿个参数。

用大白话说就是:它平时是个“懒汉”,只调动必要的那部分神经元,需要处理复杂任务时再临时拉人。对比那些同尺寸的传统大模型,它干活更省劲儿,算得更快,但给出的答案往往更聪明。

逼格比大模型还高?

别被名字骗了,别看它只有 35B,在几个关键测试里,它干的活比那些动辄上百亿的大模型还多:

  • 写代码:在 Terminal-Bench 2.0 测试里,它的表现相当不错,能搞定不少终端操作。
  • 干杂活(Agent):这才是重头戏。在现实世界的智能体任务里,它不仅甩开了上一代自己,甚至能跟那些参数大一倍的稠密模型掰手腕。这说明什么?说明光堆参数量,未必比得上这种“动则灵”的架构。

会看图,还能“想”

以前的大模型看图多半是瞎猜,但这回 Qwen3.6 加了个“多模态思维”模式,感觉像给模型装上了眼睛和大脑。

它能做空间智能分析,看图不再是简单的“这是一只猫”,而是能理解物体在画面里的位置关系。我在 RefCOCO 这种难啃的图像识别测试上跑了一下,分数确实漂亮。虽然离真正的物理世界理解还有距离,但至少能看出,它开始有点“物理直觉”了。

拿来就能用,不用改代码

对开发者来说,这模型最大的实惠是“好上车”。

它已经接入了 OpenClaw、Claude Code 这些主流框架,不用你费劲去适配。如果你想在本地跑个能处理复杂逻辑的“智能大脑”,直接用它准没错。部署起来挺顺滑,长期任务也能扛得住。

哪里能下?

想玩的直接去这两个地方:

  • Hugging Face(老地方)
  • Mogu Community(阿里的自家社区)

写在最后

说实话,看到这个模型参数这么省还能这么强,我心里还是有点打鼓。毕竟,350 亿参数虽然激活少,但背后的训练成本和推理优化难度,肯定不是光看激活数就能说明的。

不过,作为开发者,这种“以小博大”的机会确实很难得。如果你也在纠结要不要用阿里最新的这个模型,不妨先下个试用版跑跑看,说不定能给你的项目省不少算力钱。

总之,这波操作,阿里算是给行业又扔了颗大炸弹,接下来就看各家怎么接招了。

火龙果频道