AI-NEWS · 2024年 8月 9日

Lawyer Claims U.S. Cybersecurity Law is Too Vague to Protect AI Security Researchers

归纳总结:

核心问题:

  • 美国现行的《计算机欺诈和滥用法案》(CFAA)无法有效保护从事人工智能安全研究的人员,反而可能使他们面临法律风险。

关键数据与事实:

  1. 学术观点:

    • 哈佛大学的一组学者在Black Hat大会上指出,CFAA对于AI安全研究的保护不足。
    • 学者包括Kendra Albert(哈佛法学院)、Ram Shankar Siva Kumar和Jonathon Penney。
  2. 法律定义模糊:

    • Albert提到,当前法律未明确定义“提示注入攻击”等行为,使研究人员难以判断其合法性。
    • 2021年,美国最高法院在Van Buren诉美国案中的裁决仅适用于未经授权访问内部计算机信息的行为,但这一解释对大型语言模型(LLM)来说并不充分。
  3. 法律复杂性:

    • 与传统计算机系统不同,使用自然语言与AI互动使得法律定义更加复杂,因为AI的回应往往不等同于从数据库中检索信息。
  4. 研究者困惑:

    • Kumar提到,AI安全研究的合法性讨论远少于版权等问题,他不确定进行某些攻击测试时是否会受到保护。
    • Albert认为,在当前法律不确定的环境下,需要通过未来的诉讼来澄清相关规定,以保护好心的研究人员。

潜在影响:

  • 法律支持建议:
    • Albert建议安全研究人员寻求法律支持,以确保其行为不违反法律。
  • 研究人员担忧:
    • 法律条款模糊可能会阻止潜在研究人员进入该领域,让恶意攻击者逍遥法外,增加安全风险。

结论与建议:

  • 现有的CFAA需要更新和澄清,以适应快速发展的AI技术,特别是大型语言模型的安全研究。
  • 法律应明确界定新型网络安全攻击行为,以便研究人员能够更放心地进行合法研究。
  • 未来的法律诉讼可能有助于澄清这些问题,但在此之前,研究人员应谨慎操作并寻求法律咨询。

Source:https://www.aibase.com/news/10939