中美 AI 应用:不敢用 vs 被迫用
最近看到 OpenClaw 创始人 Peter Steinberger(大家叫他 Lobster)在彭博社的采访,忍不住想聊聊这事儿。时间大概是 2026 年 3 月底,聊的是中美在 AI 代理(AI Agents)这块儿,怎么差别这么大,甚至有点让人想不通。
职场:一边是“红线”,一边是“赛道”
最扎眼的是两国的职场生态,简直像是两个平行宇宙。
- 在美国,AI 似乎是个“危险品”。不少公司把安全性看得比什么都重,生怕 AI 失控或者泄露机密,于是直接出台禁令,连员工用 OpenClaw 这种工具都严加限制。我有个朋友在美国科技圈,私下里用点新玩意儿,HR 那边查到了,直接就是“优化”(也就是开除)通知。那种对失控的恐惧,让很多好工具直接成了摆设。
- 反观国内,AI 则是“生存刚需”。这反差有点大。国内企业为了抢速度,把“会用 AI"直接写进了 KPI。我认识几个做互联网的朋友,他们内部氛围挺卷的,如果你还在用 Excel 手动做表,同事可能都用 Python 脚本自动化了,那你的“人效”就被拉低了。不赶紧学 AI,反而可能面临被优化的风险。这种“被迫进化”的压力,逼着大家不得不去试错。
全民都在“跑测试”,美国还在“画图纸”
这种差异不仅在职场,还蔓延到了全社会。
在中国,你走到哪都能看到 AI 的影子。学生用它写论文(虽然学校还在管,但私下里用得多),打工人用它写周报、做数据清洗,甚至我上周去见的一位 60 多岁的老阿姨,都在用语音助手记购物清单。
Steinberger 有个观点挺有意思,他觉得中国这种“全民动员”的状态,无意中让中国成了全球最大的 AI 试验田。在美国,大家还在会议室里争论“该不该用”、“怎么监管”;而在中国,几亿用户已经在真枪实弹地用 AI 干活了。
这让我有点感触:也许只有让人类真正高频地、大规模地跟 AI 互动,才能摸清它的脾气,顺便把那些安全漏洞一个个踩出来。 坐在办公室里拍脑袋定规则,可能永远解决不了实际使用中的问题。
未来的样子:不再是“聊天机器人”,而是你的“数字分身”
聊完现状,Steinberger 现在已经在 OpenAI 的 Codex 团队负责了,他对未来的设想让我眼前一亮。
他不太提什么“专用工具”了。以前的 AI,你得先写个 Python 脚本,再调个 API,再配个前端,像个搭积木的游戏,繁琐又低效。他说的新方向是“个人代理”(Personal Agent)。
想象一下这个场景:你不需要再打开不同的软件,也不用对着冰冷的对话框说话。你的手机里、电脑里,甚至那个智能家居中枢里,跑着一个“数字分身”。你随口说句“帮我整理下上周的财报,做个 PPT 发给老板”,这个分身自动去查数据、写代码、生成 PPT,甚至还能帮你润色语气。
当然,前提得靠谱。Steinberger 也提了个硬约束:商业机密和个人隐私必须锁死。这意味着,虽然它能帮你处理一切,但你的核心数据是绝对安全的,不会随便飘到公网去。
总结一下:
以前我们跟 AI 像是在隔着玻璃窗聊天,它听不见,我们也看不见它的后台。未来,AI 会直接长进你的操作系统里,变成你手下的一个得力干将。
注:以上观点基于 2026 年 3 月 26 日彭博社采访整理,文中提到的"2026 年”为采访发生时间,若当前时间有变动,请以实际发布为准。
