归纳总结:
核心问题:
- 美国现行的《计算机欺诈和滥用法案》(CFAA)无法有效保护从事人工智能安全研究的人员,反而可能使他们面临法律风险。
关键数据与事实:
-
学术观点:
- 哈佛大学的一组学者在Black Hat大会上指出,CFAA对于AI安全研究的保护不足。
- 学者包括Kendra Albert(哈佛法学院)、Ram Shankar Siva Kumar和Jonathon Penney。
-
法律定义模糊:
- Albert提到,当前法律未明确定义“提示注入攻击”等行为,使研究人员难以判断其合法性。
- 2021年,美国最高法院在Van Buren诉美国案中的裁决仅适用于未经授权访问内部计算机信息的行为,但这一解释对大型语言模型(LLM)来说并不充分。
-
法律复杂性:
- 与传统计算机系统不同,使用自然语言与AI互动使得法律定义更加复杂,因为AI的回应往往不等同于从数据库中检索信息。
-
研究者困惑:
- Kumar提到,AI安全研究的合法性讨论远少于版权等问题,他不确定进行某些攻击测试时是否会受到保护。
- Albert认为,在当前法律不确定的环境下,需要通过未来的诉讼来澄清相关规定,以保护好心的研究人员。
潜在影响:
- 法律支持建议:
- Albert建议安全研究人员寻求法律支持,以确保其行为不违反法律。
- 研究人员担忧:
- 法律条款模糊可能会阻止潜在研究人员进入该领域,让恶意攻击者逍遥法外,增加安全风险。
结论与建议:
- 现有的CFAA需要更新和澄清,以适应快速发展的AI技术,特别是大型语言模型的安全研究。
- 法律应明确界定新型网络安全攻击行为,以便研究人员能够更放心地进行合法研究。
- 未来的法律诉讼可能有助于澄清这些问题,但在此之前,研究人员应谨慎操作并寻求法律咨询。