AI-NEWS · 2025年 12月 5日

权威机构呼吁AI安全整改

AI安全指数报告发布:OpenAI、DeepMind等领先厂商在安全关键指标上“集体不及格”

报告核心发现

非营利组织“未来生命研究所”(Future of Life Institute, FLI)于2024年12月4日发布了《2025年AI安全指数》报告,对包括OpenAI、Anthropic和Google DeepMind在内的20多家领先AI公司进行了安全评估。

关键评估结果:

  • 行业平均分极低:在“存在性风险控制”和“安全流程披露”两项核心指标上,领先厂商集体表现不佳,行业平均得分仅为42/100
  • 远未达标:该平均分远低于欧盟《AI伦理指南》设定的要求。

具体问题分析

1. 风险评估不足

  • 披露不充分:仅有3家公司公开披露了系统性的风险识别方法。
  • 关键技术细节缺失:OpenAI和DeepMind均未披露关于“超智能对齐”的技术细节。

2. 安全框架薄弱

  • 普遍缺乏跨部门安全官、红队演练记录和第三方审计。
  • 报告批评当前做法“承诺多于证据”。

3. 存在性安全计划缺位

  • 结构性弱点:所有被评估公司均未针对“比人类更智能”的系统提供清晰的控制与协调计划。

4. 信息透明度落后

  • 信息披露的深度和可衡量性平均比官方指南要求落后30个百分点

FLI的倡议与建议

  1. 建立AI安全透明度注册表:呼吁立即建立该注册表,要求公司公开披露安全方法、评估结果和独立审计报告。
  2. 实施“发布前审批”制度:建议监管机构对通用人工智能(AGI)项目实行此制度,以避免“先发布,后治理”的模式。

行业与监管回应

  • OpenAI:发言人表示已收到报告,并将在90天内发布更新的安全框架。
  • Google DeepMind:表示正在与政策团队评估具体建议。
  • 欧盟委员会:内部市场专员回应称,该指数将被用于参考执行2026年生效的《AI法案》,违规者可能面临高达全球营收2% 的罚款。

市场影响与趋势预测

  • 安全合规成为“隐形门槛”:分析师指出,安全合规性可能成为下一代大模型的准入关键。
  • 研发预算倾斜:预计从2026年开始,头部公司会将10%-15% 的研发预算分配给安全与审计领域,以确保获得监管批准。

报告来源:未来生命研究所(FLI)《AI安全指数2025》
相关概念:AI安全透明度注册表

火龙果频道