AI-NEWS · 2026年 3月 12日

360 发布首个开源 AI Agent 安全指南

3 月 11 日,360 集团发布了一份国内首份《OpenClaw 安全部署与实践指南》。这份指南专门针对开源 AI Agent 项目 OpenClaw,试图解决一个让很多开发者头疼的问题:安全。

以前大家做 AI Agent,满脑子都是“怎么让它更聪明”、“怎么把功能堆上去”。现在 360 这份指南出来,风向好像变了,行业焦点开始往“安全合规”上靠。

为什么大家这么怕?
随着 AI Agent 越来越像人的“数字分身”,能帮咱们干的事儿多了,但麻烦也跟着来了。360 的安全团队列了几条最要命的风险:

  • 接口没锁:管理接口直接裸奔,谁都能进。
  • 密码漏了:账号密码在传输或存的时候被截胡。
  • 被提权:黑客找个漏洞,直接拿到服务器最高权限。
  • 提示注入(Prompt Injection):这是最吓人的新招。不用改代码,只要换个说话的方式诱导 AI,它就能绕过安全限制去干坏事。
  • 插件被黑:用别人写的恶意插件,把数据偷走或者控制你的 Agent。

说实话,看到“提示注入”这一条,我心里挺发毛的。以前觉得只要防火墙设好就行,现在发现攻击面都跑到应用逻辑和提示词工程里了,这不好防啊。

那到底咋办?
360 给出的方案挺务实,核心就八个字:“先控制,后提效”。

如果你是个人开发者或者小公司:
别整什么大场面,先把自己包起来。

  • 用容器化技术,给 Agent 建个独立的笼子,让它别乱跑、别乱用资源。
  • 权限给最小化,能干什么就干什么,多一步都不给。
  • 密码别硬写在代码里,用环境变量或者专门的服务去喂给它。

要是政府或大企业,搞多 Agent 协作:
这就得搞“零信任”架构了,别默认谁都是好人。

  • 安全网关:流量进来先过筛子,不对劲的立马拦。
  • 细粒度权限:谁是什么角色,能干什么,代码里写死,不能含糊。
  • 盯着它看:建立个行为基线。比如突然疯狂调用接口,或者干点跟业务逻辑无关的敏感操作,系统直接报警拦截。

这份指南出来,我觉得挺实在的。至少它没画大饼,而是直接告诉行业:AI 火起来了,安全这根弦得绷紧,而且得从“管人”变成“管逻辑”。对于想正经落地 AI Agent 的团队来说,这应该是个不得不看的“避坑指南”。

火龙果频道