阿里又放出一个“小钢炮”:Qwen3.6-35B
昨晚(4 月 19 日)晚,阿里通义千问团队搞了个大动作,直接把 Qwen3.6 系列里的“中型选手”——Qwen3.6-35B-A3B 开源了。说实话,看到这个参数名的时候,我第一反应是:这就完了?
结果跑了一圈实测,这玩意儿有点东西。
参数这么“省”,脑子这么“活”
这模型最逗的地方在于“偷鸡”。总参数量 350 亿,看着挺唬人,但实际干活的时候,它只激活 30 亿个参数。
用大白话说就是:它平时是个“懒汉”,只调动必要的那部分神经元,需要处理复杂任务时再临时拉人。对比那些同尺寸的传统大模型,它干活更省劲儿,算得更快,但给出的答案往往更聪明。
逼格比大模型还高?
别被名字骗了,别看它只有 35B,在几个关键测试里,它干的活比那些动辄上百亿的大模型还多:
- 写代码:在 Terminal-Bench 2.0 测试里,它的表现相当不错,能搞定不少终端操作。
- 干杂活(Agent):这才是重头戏。在现实世界的智能体任务里,它不仅甩开了上一代自己,甚至能跟那些参数大一倍的稠密模型掰手腕。这说明什么?说明光堆参数量,未必比得上这种“动则灵”的架构。
会看图,还能“想”
以前的大模型看图多半是瞎猜,但这回 Qwen3.6 加了个“多模态思维”模式,感觉像给模型装上了眼睛和大脑。
它能做空间智能分析,看图不再是简单的“这是一只猫”,而是能理解物体在画面里的位置关系。我在 RefCOCO 这种难啃的图像识别测试上跑了一下,分数确实漂亮。虽然离真正的物理世界理解还有距离,但至少能看出,它开始有点“物理直觉”了。
拿来就能用,不用改代码
对开发者来说,这模型最大的实惠是“好上车”。
它已经接入了 OpenClaw、Claude Code 这些主流框架,不用你费劲去适配。如果你想在本地跑个能处理复杂逻辑的“智能大脑”,直接用它准没错。部署起来挺顺滑,长期任务也能扛得住。
哪里能下?
想玩的直接去这两个地方:
- Hugging Face(老地方)
- Mogu Community(阿里的自家社区)
写在最后
说实话,看到这个模型参数这么省还能这么强,我心里还是有点打鼓。毕竟,350 亿参数虽然激活少,但背后的训练成本和推理优化难度,肯定不是光看激活数就能说明的。
不过,作为开发者,这种“以小博大”的机会确实很难得。如果你也在纠结要不要用阿里最新的这个模型,不妨先下个试用版跑跑看,说不定能给你的项目省不少算力钱。
总之,这波操作,阿里算是给行业又扔了颗大炸弹,接下来就看各家怎么接招了。
