OpenAI紧急招聘AI灾难预防主管:年薪55万美元,直接参与产品发布决策
核心信息
- 职位名称:准备状态主管
- 年薪:55万美元起,另加股权
- 汇报对象:安全系统部门高级领导层
- 发布时间:2025年12月29日
- 招聘状态:紧急招聘
职位背景与职责
随着AI能力呈指数级增长及安全风险加剧,OpenAI正通过设立高级职位来填补其安全体系中的关键缺口。该职位由CEO萨姆·阿尔特曼亲自称为“关键时期的关键角色”。
核心职责:
“准备状态”是OpenAI近年来构建的核心安全机制之一,旨在系统性评估和防御大型模型可能引发的极端风险,包括但不限于:
- 模型被滥用于生物、网络或化学攻击。
- 自主智能体失控或进行战略性欺骗。
- 社会层面的操纵和大规模虚假信息生成。
具体工作:
- 制定技术策略,设计压力测试框架。
- 组织红队演练。
- 就模型是否准备好安全部署提供权威评估。
- 拥有对产品发布决策的否决权。
职位重要性分析
- 直接参与决策:该主管将直接参与尖端AI模型发布的决策过程,工作与模型开发、产品和政策团队紧密协作。
- 高层直接领导:此前该职能由知名AI安全专家、前MIT教授、现OpenAI副总裁Aleksander Madry临时负责,目前尚无永久主管,凸显了该职位的重要性和寻人的难度。
- 战略定位:阿尔特曼在内部信中强调,随着AI能力越强,确保“准备就绪”比以往任何时候都更重要。这并非支持性岗位,而是塑造公司未来方向的核心职位。
行业信号与深度观察
- 薪资水平:55万美元的起薪远超普通安全工程师,接近OpenAI研究科学家和产品高管的水平。这反映了行业对“主动防御”型安全人才的激烈需求——安全不再仅是事后审查,而是融入开发源头的战略能力。
- 行业趋势:Anthropic、Google DeepMind等公司也已建立类似的“AI灾难预防”或“极端风险评估”团队。这表明AI安全正从一个技术分支演变为独立的战略支柱。
- 竞争转向:随着大模型竞争从“谁更快”转向“谁更稳”,OpenAI此举发出了明确信号:顶尖AI公司不仅要创造超级智能系统,还必须管理它们。设立“准备状态主管”实质上是在为AGI的到来安装“紧急制动系统”。
关联信息
在同一日期的其他相关报道中,OpenAI还确认正在探索ChatGPT的广告模式,以覆盖成本并维持免费服务,预计到2030年广告收入可能达到15亿美元。
