AI-NEWS · 2026年 1月 7日

前OpenAI专家调整AGI时间线

前OpenAI专家调整AGI时间线:人类毁灭计划推迟?

发布日期:2026年1月6日
来源:AIbase
阅读时长:约3分钟

核心观点更新

前OpenAI员工、知名人工智能专家丹尼尔·科科塔伊洛(Daniel Kokotajlo)近期修正了他关于超级智能(Superintelligence)可能毁灭人类的时间预测。他指出,通用人工智能(AGI)的发展似乎比他最初预期的“稍慢一些”。

预测时间线对比

原预测(曾引发广泛争议)

  • 2027年:AI实现完全自主编程。
  • 2030年代中期:AI迅速演变为不可控的超级智能,最终导致人类毁灭。
  • 影响:该观点曾被美国政治人物引用,但也遭到神经科学家加里·马库斯(Gary Marcus)等学者的强烈批评,被称为“科幻小说”。

新预测(基于最新现实反馈)

  • 2030年代初期:AI实现自主编程的时间被推迟至此。
  • 约2034年:超级智能出现的窗口期。
  • 依据:科科塔伊洛承认,当前AI在复杂的现实环境中仍表现出“不平衡性”。

行业动态与背景

尽管预测时间线后移,但领先科技公司并未放缓步伐:

  • OpenAI:首席执行官萨姆·奥尔特曼(Sam Altman)透露,公司的内部目标是在2028年实现自动化AI研究员
  • 专家提醒:现实世界的复杂性远超科幻场景,AGI的真正到来仍存在不确定性。

相关市场动态(同日其他新闻摘要)

  1. 脑机接口(BCI)概念股上涨

    • Neuralink宣布量产BCI设备,推动中国“脑工程”股票多只涨停。
    • 美年健康凭借“AI+脑科学”战略、早期筛查技术、大数据及全周期服务,成为行业与资本关注焦点。
  2. MiniMax香港IPO超额认购1209倍

    • 中国AI初创公司MiniMax的香港IPO认购已结束,凭借多模态技术和消费级应用优势,获得市场热捧。
    • 超额认购达1209倍,成为2026年香港最热门的科技IPO,融资额达数十亿美元级别。

:本文内容整理自AIbase报道,旨在提供清晰的信息摘要,已移除广告、推广链接及无关导航内容。

火龙果频道