AI-NEWS · 2025年 12月 29日

OpenAI急聘AI防灾主管

OpenAI紧急招聘AI灾难预防主管:年薪55万美元,直接参与产品发布决策

核心信息

  • 职位名称:准备状态主管
  • 年薪:55万美元起,另加股权
  • 汇报对象:安全系统部门高级领导层
  • 发布时间:2025年12月29日
  • 招聘状态:紧急招聘

职位背景与职责

随着AI能力呈指数级增长及安全风险加剧,OpenAI正通过设立高级职位来填补其安全体系中的关键缺口。该职位由CEO萨姆·阿尔特曼亲自称为“关键时期的关键角色”。

核心职责
“准备状态”是OpenAI近年来构建的核心安全机制之一,旨在系统性评估和防御大型模型可能引发的极端风险,包括但不限于:

  1. 模型被滥用于生物、网络或化学攻击。
  2. 自主智能体失控或进行战略性欺骗。
  3. 社会层面的操纵和大规模虚假信息生成。

具体工作

  • 制定技术策略,设计压力测试框架。
  • 组织红队演练。
  • 就模型是否准备好安全部署提供权威评估。
  • 拥有对产品发布决策的否决权

职位重要性分析

  1. 直接参与决策:该主管将直接参与尖端AI模型发布的决策过程,工作与模型开发、产品和政策团队紧密协作。
  2. 高层直接领导:此前该职能由知名AI安全专家、前MIT教授、现OpenAI副总裁Aleksander Madry临时负责,目前尚无永久主管,凸显了该职位的重要性和寻人的难度。
  3. 战略定位:阿尔特曼在内部信中强调,随着AI能力越强,确保“准备就绪”比以往任何时候都更重要。这并非支持性岗位,而是塑造公司未来方向的核心职位。

行业信号与深度观察

  • 薪资水平:55万美元的起薪远超普通安全工程师,接近OpenAI研究科学家和产品高管的水平。这反映了行业对“主动防御”型安全人才的激烈需求——安全不再仅是事后审查,而是融入开发源头的战略能力。
  • 行业趋势:Anthropic、Google DeepMind等公司也已建立类似的“AI灾难预防”或“极端风险评估”团队。这表明AI安全正从一个技术分支演变为独立的战略支柱。
  • 竞争转向:随着大模型竞争从“谁更快”转向“谁更稳”,OpenAI此举发出了明确信号:顶尖AI公司不仅要创造超级智能系统,还必须管理它们。设立“准备状态主管”实质上是在为AGI的到来安装“紧急制动系统”。

关联信息

在同一日期的其他相关报道中,OpenAI还确认正在探索ChatGPT的广告模式,以覆盖成本并维持免费服务,预计到2030年广告收入可能达到15亿美元。

火龙果频道