AI-NEWS · 2026年 3月 18日

字节跳动大模型内网管控新规

昨天字节跳动内部发了个新东西:《OpenClaw 安全标准》和配套工具 ByteClaw。说白了,就是给大模型在公司内部网络里干活立规矩。

这东西其实是基于火山引擎的 ArkClaw 企业版改的,核心就干三件事:统一身份认证、管访问权限、还有权限控制。简单点说,就是得用公司账号进,不能随便乱来。

这规矩是冲着哪几个坑去的?
大模型用在公司里,现在最容易出问题的就是这五块:

  1. 随便就能进:没经过认证,谁都能指挥模型。
  2. 被“套话”:也就是 Prompt Injection,就是有人写段话骗模型去删库或者干别的坏事。
  3. 把数据喂进去就漏了:模型把公司的敏感数据记脑子里,或者输出时不小心带出去。
  4. 用的开源包有后门:依赖的库本身就有漏洞。
  5. 插件是坏的:模型下载的插件里藏着恶意代码。

针对这五点,规范里写得挺清楚,得怎么防,得用什么技术手段,基本都定了。

最狠的一条是“红线”:

  1. 绝对禁止上生产环境:别想着把这种还在实验期的东西直接装到业务服务器上,出了事谁负责?
  2. 也不建议自己拉回家用:办公电脑上本地部署?免谈。
  3. 除非没得选:如果业务真的非做不可,必须得先按这个《安全规范》配好,过安检才能用。

我怎么看这事儿?
说实话,以前大家聊大模型,总喜欢吹“技术多牛”、“实验多酷”。但现在字节跳动的这个动作,明显是把重点从“能不能跑”转到了“敢不敢用”。

第一,安全是门槛。
现在开源框架像 OpenClaw 越来越火,大模型应用想真正落地干活,光有模型不行,得先搭好安全底座。没有统一的账号和权限控制,这东西在公司里根本推不开。

第二,还是得往云上靠。
字节这次明显是押注云托管。为什么?因为本地部署不仅风险高,以后还要一个个盯着管,太费劲了。放在云上,监控和审计方便多了,攻击面也小。这跟整个行业往“云端化、集中化”走的趋势是对上的。

第三,这是给行业打个样。
字节把内部摸索出来的经验打包成标准,这招挺狠。毕竟现在通用大模型(比如 GPT)大家都能用,但企业自研的大模型怎么在保安全的前提下把活儿干漂亮,这才是各家大厂接下来要拼的。

总的来说,这不仅是字节内部的事,也给外面那些想用大模型的公司提了个醒:想上,先想好怎么管。

火龙果频道