AI-NEWS · 2026年 1月 13日

微软AI负责人警告:可控性是AI生命线

微软AI CEO警告:AGI竞赛中,“控制”比“对齐”更根本

随着通用人工智能(AGI)的竞争日益激烈,微软AI首席执行官穆斯塔法·苏莱曼向整个行业发出了警告:我们正危险地混淆了两个关键概念——“控制”与“对齐”。

核心论点:控制是安全的底线

苏莱曼在社交平台X上明确指出,一个无法被有效控制的AI系统,无论其目标与人类价值观多么“对齐”,本质上都是不可靠且危险的。他强调,行业过度专注于让AI“理解”人类意图(即对齐),却忽视了一个更根本的前提——确保系统的行为始终保持在人类设定的硬性边界之内(即控制)。

他对此做了一个生动的比喻:“你无法控制一个失控的系统,即使它声称‘爱你’。” 在他看来,在追求超级智能之前,必须优先建立可验证且可执行的控制框架,这是AI安全不可逾越的底线。

从“完全自主”转向“受控专注”

苏莱曼在其发布于微软AI博客的最新文章《人文主义超级智能》中进一步阐述了这一观点。他认为,AI发展的重点应从“完全自主的通用智能”的幻想,转向在特定高价值领域部署受控、专注且可审计的智能系统,例如:

  • 医疗诊断
  • 药物发现
  • 清洁能源突破

这些“人文主义超级智能”并不追求全知全能,而是在人类监督下,以使命为导向,致力于解决人类最紧迫的挑战。

呼吁跨行业合作,重申控制为红线

值得注意的是,苏莱曼表现出非同寻常的跨行业合作意愿。他透露,自己正与多家领先AI公司的高管保持密切沟通,并公开赞扬了:

  • 埃隆·马斯克:在安全问题上“坦率、开放的讨论”。
  • 萨姆·奥尔特曼:“高效且目标驱动”。

但他重申,无论技术路径有何差异,“控制必须是所有AI开发的起点和红线”。

总结:在能力飙升的时代,筑牢控制之坝

在AI能力呈指数级增长的2026年,苏莱曼的警告如同一盆冷水,提醒着快速前进的行业:真正的智能不仅在于它能做什么,更在于它绝不能做什么。只有先筑牢坚实的控制之坝,对齐之舟才不至于在未知的风险海洋中倾覆。

火龙果频道