AI安全指数报告发布:OpenAI、DeepMind等领先厂商在安全关键指标上“集体不及格”
报告核心发现
非营利组织“未来生命研究所”(Future of Life Institute, FLI)于2024年12月4日发布了《2025年AI安全指数》报告,对包括OpenAI、Anthropic和Google DeepMind在内的20多家领先AI公司进行了安全评估。
关键评估结果:
- 行业平均分极低:在“存在性风险控制”和“安全流程披露”两项核心指标上,领先厂商集体表现不佳,行业平均得分仅为42/100。
- 远未达标:该平均分远低于欧盟《AI伦理指南》设定的要求。
具体问题分析
1. 风险评估不足
- 披露不充分:仅有3家公司公开披露了系统性的风险识别方法。
- 关键技术细节缺失:OpenAI和DeepMind均未披露关于“超智能对齐”的技术细节。
2. 安全框架薄弱
- 普遍缺乏跨部门安全官、红队演练记录和第三方审计。
- 报告批评当前做法“承诺多于证据”。
3. 存在性安全计划缺位
- 结构性弱点:所有被评估公司均未针对“比人类更智能”的系统提供清晰的控制与协调计划。
4. 信息透明度落后
- 信息披露的深度和可衡量性平均比官方指南要求落后30个百分点。
FLI的倡议与建议
- 建立AI安全透明度注册表:呼吁立即建立该注册表,要求公司公开披露安全方法、评估结果和独立审计报告。
- 实施“发布前审批”制度:建议监管机构对通用人工智能(AGI)项目实行此制度,以避免“先发布,后治理”的模式。
行业与监管回应
- OpenAI:发言人表示已收到报告,并将在90天内发布更新的安全框架。
- Google DeepMind:表示正在与政策团队评估具体建议。
- 欧盟委员会:内部市场专员回应称,该指数将被用于参考执行2026年生效的《AI法案》,违规者可能面临高达全球营收2% 的罚款。
市场影响与趋势预测
- 安全合规成为“隐形门槛”:分析师指出,安全合规性可能成为下一代大模型的准入关键。
- 研发预算倾斜:预计从2026年开始,头部公司会将10%-15% 的研发预算分配给安全与审计领域,以确保获得监管批准。
报告来源:未来生命研究所(FLI)《AI安全指数2025》
相关概念:AI安全透明度注册表
