Anthropic 刚更新了 Claude Cowork 的部署指南,这次终于把 Amazon Bedrock、Google Cloud 和 Azure AI Foundry 三大云厂商的 API 都接上了。对 IT 管理员来说,这意味着把 AI 模型私有化或者塞进公司内网,比之前容易多了。
这玩意儿到底能干什么?
1. 终于能装在你公司电脑上了
以前这种工具可能只跑在 Mac 上,现在 macOS 13.0 (Ventura) 以上、Windows 10/11 都能用。
不过 Windows 用户得先打开“虚拟机平台”,不然装不上。
如果你公司用 Jamf 或 Kandji 管 Mac,或者用 Intune 管 Windows,那直接批量推送配置就行,省事儿。
2. 别再逼程序员调参数了
桌面版现在有个 "Developer Mode"(开发者模式),点两下鼠标就能开。
想配第三方接口?不用去敲命令行了。界面里有几个框填就行:
- API 密钥
- 服务账号的 JSON 文件
- 网关的基础 URL
以前得背一堆参数,现在就是填个表,IT 部门的老哥也能上手。
3. 不只是聊天,还能干活
这次最大的变化是多了“干活”的味儿。
- 插件随便用:系统能挂载本地文件夹,你们想给不同角色配什么技能(Skills)或者 MCP 服务器 就配什么。
- 分标签页:部署好后,界面会多出两个标签,一个是 "Cowork (Collaboration)" 用来协作,另一个是 "Code" 用来写代码。
- 直接写代码:最爽的是,你可以在宿主环境的终端里直接写代码,不用切窗口。
4. 盯着他们别乱跑
企业最怕 AI 把公司 Token 钱烧没,或者泄露数据。这次指南里说得很细:
- 限额:管理员能设 Token 上限,超过就不让跑了。
- 隐私:能通过 MDM 策略把那些乱七八糟的遥测数据(Telemetry)给关掉,别往公网传。
- 盯着看:接了 OTLP 协议,用 OpenTelemetry 能实时看到员工发了什么提示词、调了什么工具、用了多少 Token。心里有底了。
我的观察:这算是个转折点吧?
这次更新确实让 Claude Cowork 从“个人玩具”变成了正经的“企业工具”。Anthropic 把 Amazon、Google、Azure 三家都打通了,算是打破了之前那种“我只能用某一家云”的孤岛局面。
- 不用被绑架了:以前企业只能选一家云,现在想选哪家便宜、哪家快就选哪家,或者干脆就架在私有云里,主动权在自己手里。
- IT 部门松口气了:以前推 AI 得搞半天技术架构,现在有个图形界面,IT 管理员不用去学怎么用 Python 调 API,就能安全地管好公司的 AI 资产。这能加速不少落地速度。
- 感觉它在往“基础设施”上靠:支持 MCP 和 OTLP,说明 Anthropic 不只想做个聊天机器人,它想把自己变成企业 AI 工作流的一部分。不管是写代码还是运维监控,它都想插一脚。
说实话,看到这个变化,我既觉得兴奋,又有点警惕。兴奋的是它真的开始像个正经软件了,警惕的是……一旦它深入到了代码和运维核心,要是出了什么安全问题,或者 Token 费像水龙头一样止不住,那麻烦可就大了。
指南里还提了个配置表更新到了 2026 年 4 月,看来这玩意儿打算长期玩下去。
官方文档在这:Anthropic 支持页面
