Anthropic支持加州AI安全法案,科技行业阻力持续
事件概述
2025年9月9日,人工智能公司Anthropic正式表态支持加州州长Scott Wiener提出的SB53法案。该法案旨在对全球最大AI模型开发者实施前所未有的透明度要求,这是美国首次通过立法方式应对AI安全问题的尝试。
法案核心内容
SB53法案要求包括Anthropic、OpenAI、Google和xAI在内的AI模型开发者在部署强大AI模型前必须:
- 制定安全框架
- 发布公共安全与安保报告
- 为举报安全问题的员工提供保护
法案特别关注限制AI模型对"灾难性风险"的贡献,定义为导致至少50人死亡或超过10亿美元损失的事件。重点防范极端AI风险,如防止AI模型被用于生物武器开发或网络攻击,但不涉及深度伪造或过度定制等更直接的问题。
支持与反对立场
支持方
Anthropic在博客中表示:"虽然我们认为前沿AI安全问题应在联邦层面而非各州单独解决,但强大AI技术的发展不会等待华盛顿达成共识。"公司强调建立AI治理标准迫在眉睫,SB53提供了合理路径。
反对方
反对主要来自硅谷和特朗普政府,认为此类法案可能阻碍美国在与中国的竞争中创新。Andreessen Horowitz和Y Combinator等投资者强烈反对,主张州政府不应干预AI安全问题,此事应交由联邦政府处理。
立法进展
加州参议院已通过SB53初步版本,但仍需最终投票才能送交州长签署。尽管州长Newsom尚未对此法案表态,但他此前曾否决类似的SB1047法案。
专家观点
政策专家认为,与之前的AI安全法案相比,SB53相对温和。加州立法者在起草过程中展示了对技术现实的尊重和一定的立法克制。Anthropic联合创始人Jack Clark表示,虽然希望有联邦标准,但当前法案为AI治理提供了不可或缺的蓝图。
关键要点
- Anthropic支持SB53法案,强调AI治理的重要性
- 法案要求大型AI开发者创建安全框架、发布安全报告并保护举报人
- SB53专注于防范极端风险,仍需最终投票才能生效