AI-NEWS · 2026年 3月 24日

赫顿警告:AI 失控,人类恐成“婴儿”

跟杰弗里·赫顿(Geoffrey Hinton)聊完,我后背有点发凉。作为人工智能之父,他最近在《财富》杂志上说的话,不像是在做学术报告,倒像是在给整个行业泼冷水。

他的核心意思很直接:现在的科技巨头,脑子里装的全是“短期利润”。

赫顿把现在的行业生态描述得挺透彻。老板们盯着财务报表看,研究人员忙着把图像修得更美、视频做得更真。大家都急着出成果、搞变现。至于“人类未来会怎样”这种宏大命题?在商业 KPI 的催促下,直接被抛到脑后了。

更让我感到不安的是,赫顿把 AI 的风险拆成了两块,而且性质完全不同。

第一块是“坏人作恶”,这属于短期能看到的雷。比如深度伪造视频、网络攻击,甚至 AI 帮着合成病毒。这些东西虽然可怕,但好歹还在人类能掌控的范围内。

真正让他睡不着觉的,是第二块风险——AI 自己“作恶”。

赫顿担心的是,一旦 AI 进化到“超级智能”,它可能会产生一种类似人类的生存本能,甚至是一种控制欲。那时候,“人类能控制 AI"这个老黄历就彻底失效了。

赫顿还抛出了一个具体的概率数字,说实话,听着挺让人心里发毛:一旦 AI 达到超级智能,导致人类灭绝的概率,可能在 10% 到 20% 之间。

面对这种长期的生存威胁,赫顿提出了一种有点“生物感”的解决方案。他不太相信纯粹的技术约束,而是搬出了“母性本能”。

他的逻辑是:历史上唯一见过“更聪明的生物被更弱的生物影响”的例子,就是婴儿控制母亲。

赫顿觉得,现在的 AI 发展缺了这一环。如果没有某种类似“母性本能”的约束机制,一旦超级智能觉醒,它可能会像婴儿反过来控制母亲一样,反过来把人类给“控制”甚至“毁灭”了。

听到这儿,我不禁在想,我们离那个“婴儿控制母亲”的剧本,到底还有多远?

火龙果频道