AI-NEWS · 2026年 3月 27日

Cloudflare 换用 Kimi,省下一年 240 万

Cloudflare 换用 Kimi,省下一年 240 万

这事的来龙去脉其实挺有意思。全球互联网基础设施巨头 Cloudflare,突然宣布把自家生产环境里用的自研专有模型,全换成了 Moonshot AI(月之暗面)的开源模型 Kimi K2.5。

乍一看这像是大厂为了蹭开源的热度,但仔细琢磨,这背后全是算盘打得噼里啪啦响。他们这么做,纯粹是因为钱太贵了,而 Kimi K2.5 在关键指标上确实能“硬刚”闭源模型。

具体优势大概就这三点:

  • 上下文够长:256k 的窗口,吃进海量信息不是问题。
  • 能看懂图:多模态能力在线,不再是单纯的文本处理。
  • 干活不手抖:特别是在编程和智能体(Agent)这种需要多轮工具调用的活儿上,稳定性相当不错。

成本直接腰斩,省下的钱能买什么?

Cloudflare 的工程师们已经在日常开发里把 Kimi K2.5 当“主力”用了。这可不是拍脑袋决定的,数据摆在那儿,对比结果确实扎心又解气。

举个最实在的例子:有个专门扫描代码库安全漏洞的 AI Agent。

  • 工作量:这玩意儿每天得处理超过 70 亿个 Token。
  • 旧账:如果还守着原来的闭源模型不放,光这一个场景,一年就得烧掉 240 万美元

换用 Kimi K2.5 之后呢?

  • 省钱:推理成本直接砍掉了 77%
  • 质量没崩:这点最让人意外。虽然省了这么多钱,但服务质量没打折。测试显示,Kimi K2.5 能一次性准确识别出单个代码库里的 15 个 确认安全漏洞。

说实话,看到这个“成本降幅 77%"和“准确识别 15 个漏洞”并列出现的时候,我有点怀疑是不是测试条件太苛刻了。毕竟在业界,通常降低成本往往意味着牺牲质量,但这次 Kimi K2.5 似乎真的找到了那个微妙的平衡点——既便宜,又靠谱。

为什么是现在?

Cloudflare 的首席执行官 Matthew Prince 在 2026 年的 SXSW 大会上放话说,未来的互联网流量将由数亿个 AI Agent 驱动。听着挺宏大,对吧?

确实,随着 Agent 数量的爆炸式增长,AI 推理(Inference)的需求是坐火箭一样往上窜。

Cloudflare 这次果断“弃暗投明”(虽然是用开源代替自研),在我看来,这不仅仅是为了省那点运营费这种战术动作,更是一次战略性的避险。未来的算力需求是个无底洞,闭源模型的价格可能会像现在这样,或者更离谱。通过拥抱开源,他们是在试图构建一个更具弹性、更不容易被“卡脖子”的技术底座。

这笔账到底划不划算?

让我们算笔细账。

在这个案例里,Kimi K2.5 在保持高质量输出(准确识别 15 个复杂漏洞)的同时,把成本压到了原来的 23%。这意味着什么?

意味着在手里握有同样预算的情况下,企业能支撑起约 4.5 倍 的 Token 处理量。

或者换个角度,如果你原本打算处理那些高频的 70 亿 Token 场景,现在每年能省下 240 万美元。这笔钱够干什么?够支撑好几百个中小规模的 AI 应用开发。

对于很多还在观望、或者因为成本太高而不敢上手的中小企业来说,这 240 万美元的节省,简直就是直接砸开了大模型部署的大门。门槛低下来了,大家才敢真正开始玩。

总的来说,Cloudflare 这次的选择,既像是精明的财务决策,又像是对未来几年行业格局的一次精准押注。至于这开源模型能不能一直这么稳,咱们还得接着看。

火龙果频道