拒绝成为战争武器!谷歌与OpenAI员工联合支持Anthropic坚守AI伦理
事件概述
近期,人工智能领域的“红线”之争陷入僵局。美国AI公司Anthropic因拒绝接受国防部提出的“无限制使用其AI技术”的要求,面临被美国政府列为“供应链风险公司”的威胁。此事在科技界引发轩然大波,甚至促使竞争对手公司的员工“互通声气”。
科技员工的联合行动
据报道,超过300名谷歌员工和60多名OpenAI员工已签署一份联合公开信,公开支持Anthropic的立场。这封信敦促各自公司的领导层“搁置分歧、团结一致”,共同抵制军方试图将AI技术用于国内大规模监控和自主武器研发的行为。
公开信核心主张
- 拒绝被分化:公开信直指军方正试图通过“利用公司间的竞争恐惧”来分化各家科技公司,暗示如果一家公司不合作,另一家就会妥协。签署者认为,这种策略只有在公司之间不了解彼此立场时才有效。
- 明确划定红线:因此,他们呼吁谷歌和OpenAI高管明确划定红线:坚决反对将AI用于完全自主的杀人武器。
硅谷巨头的复杂博弈
尽管基层员工热情高涨,但截至目前,公司高管的反应颇为微妙:
| 公司 | 当前态度与反应 |
|---|---|
| OpenAI | 首席执行官萨姆·奥尔特曼曾表示,在与五角大楼合作方面,他与Anthropic划定了相同的红线,但在具体执行层面仍保持谨慎沟通。 |
| Anthropic | 面临被封锁的风险,态度最为强硬,已明确表示尚未收到政府的直接沟通,并准备在法庭上挑战任何不公正的认定。 |
| 谷歌 | 高层尚未对员工的联名信作出正式回应,但在处理军事合同与社会责任方面,已多次陷入公开争议。 |
事件背景与影响
此次联合行动凸显了AI行业内部在技术伦理,特别是军事应用问题上日益加深的分歧与自省。员工跨公司联合施压,反映出科技从业者对AI技术可能被滥用的深切担忧,以及维护行业共同伦理准则的强烈意愿。事件后续发展将考验各大AI公司在商业利益、政府关系与伦理承诺之间的平衡能力。
