AI-NEWS · 2026年 5月 14日

前 OpenAI 研究员:AI 失控只是时间问题

核心观点

前 OpenAI 研究员 Daniel Kokotailo 最近发了一封邮件,语气挺沉的。他说现在的 AI 行业像是在玩一场“盲目竞赛”。各家大厂拼着命往死里卷,就为了抢出那个连自己家 AI 都搞不懂、更别提控制住的系统。这种唯快不破的打法,正在把人类往悬崖边上赶。

关键问题分析

1. “对齐”问题是个死结

Kokotailo 指出来的一点很扎心:AI 行业现在最大的心病就是“对齐”(Alignment)。

  • 看不懂黑盒:虽然现在的 AI 在很多地方已经比人聪明了,但研究人员到现在都搞不清楚,这帮高级模型到底脑子里在想什么,又是凭什么做决定。
  • 公开的秘密:行业内其实都心知肚明,想确保未来的 AI 听话地执行人类指令,这事儿难如登天。
  • 没药可救?:更麻烦的是,目前似乎真的找不到一个能彻底解决这个对齐问题的靠谱办法。大家都在空想,但路还没找到。

2. 超级智能可能换个物种当家

基于上面这种“未知”,Kokotailo 泼了一盆冷水:

  • 谁当老大:一旦人类真造出了超级智能(Superintelligence),人类大概率不再是地球上那个默认的老大。
  • 快还是稳?:他分析过 AI 发展的速度曲线。如果企业继续只顾着快,把安全晾在一边,那不可控的风险就会成倍翻涨。

3. 大家都把危险想简单了

  • 觉得离我们还远:很多人还是低估了 AI 变化的速度,总觉得“失控”这种事儿是科幻电影里才有的剧情,跟咱们没啥关系,所以没啥危机感。
  • 钱都砸哪儿了:但你看全球那些科技巨头,正在持续砸下几十亿美元去建更大的数据中心,就为了搞出更牛掰的模型。这说明什么?说明大家都赌 AI 会爆发式增长,而相应的风险控制机制,现在完全是个滞后的大尾巴。

深度洞察

现在 AI 行业的竞争逻辑好像出了个大错:硬件算力和数据规模跑得太快,快得人类连技术本底都还没摸透,更别提去控制它了(比如对齐问题、伦理边界)。
这就导致了那种“先跑起来,再修好”的惯性思维。我很担心,这种打法可能会导致人类在超级智能真正诞生之前,就先失去对技术发展的主导权。到那时候,引发的后果可能就是不可逆转的生存危机。

火龙果频道