Anthropic 在 2026 年 3 月把 Claude Code 的“自动模式”上线了。说白了,就是让 AI 写代码别再让我像个保安一样,每敲一行都点头确认。
以前那种“步步确认”的模式,说实话挺劝退的。哪怕是最简单的改个变量名,都得停下来等它问一句:“您确定要执行这个吗?”这种体验就像开车时脚一直悬在刹车上,累得慌。
这次新出的自动模式,逻辑其实挺有意思。它没让我全程盯着,而是塞进去了一套专门的“分类器模型”。你可以把它想象成一个坐在旁边的安全员,专门盯着 AI 干活。
AI 想跑代码前,得先过这一关。如果风险在安全线以内,它就放手去干;一旦觉得不对劲,直接拦截。
这套系统主要防四样东西:
一是别让 AI 手抖把整个项目删了;
二是别让密码、API Key 这种敏感信息漏到外面去;
三是防止它生成那种能把系统搞挂的恶意脚本;
四是防“提示词注入”,就是防止有人在代码里藏坏话,骗 AI 跑错任务。
最有意思的是它的决策逻辑,分三层。先看有没有明确禁止的,再看有没有明确允许的。如果这两样都扯不上关系,它才会去猜你的意图:“老板,这活儿您真心想让我干吗?”
不过,别以为这就彻底甩手不管了。如果 AI 在自动模式下一直试图干那些被判定为“禁止”的蠢事,系统会直接弹窗提醒我。所以,最终拍板的大权还在人手里,AI 越界了,人还能踩一脚刹车。
说实话,这种从“保姆式确认”到“带刹车的自动驾驶”的转变,对咱们写代码的人来说,解脱感挺强的。以后不用把时间浪费在跟 AI 确认“行不行”上,能多腾出点精力去琢磨业务逻辑本身。
当然,我也没完全放心。Anthropic 也没吹牛,相关方(AIbase)说会持续监控这玩意儿的表现,过段时间再出个深度报告。毕竟,让一个黑盒模型完全接管你的代码库,这心里头还是有点打鼓的。
至于这算不算 AI 编程领域的里程碑?我持保留意见。它确实解决了信任难题,但能不能真正落地,还得看后续监控数据能不能打脸那些质疑声。
