AI-NEWS · 2024年 12月 18日

谷歌放宽AI限制,人类监督下可在高风险区使用生成式AI

Google更新生成式AI使用条款

Google近期对其生成式AI的使用条款进行了更新,明确允许客户在“高风险”领域(如医疗保健和就业)中使用其生成式AI工具进行“自动化决策”,前提是在有人类监督的情况下。这一变动体现在公司最新的生成式AI使用政策中。

关键信息

  1. 新的使用政策:根据最新条款,客户可以在人类监督下使用Google的生成式AI做出可能对个人权利产生“重大负面影响”的自动化决策。高风险领域包括就业、住房、保险和社会福利。
  2. 澄清与修正:Google表示其从一开始就允许这种决策行为,但需要有人类介入监督。最新的修订只是重新分类了一些条款,并提供了更明确的示例以供用户理解。
  3. 竞争对手策略对比
    • OpenAI禁止使用其服务进行与信贷、就业、住房、教育和社会评分及保险相关的自动化决策。
    • Anthropic允许在法律、保险和医疗等高风险领域内进行自动化决策,但必须由“合格专业人士”监督,并要求客户明确披露他们使用AI的用途。

监管趋势

  1. 国际监管机构关注:各国监管机构对用于自动决策的AI系统表示担忧,认为这种技术可能导致偏见结果。
  2. 欧盟AI法案:高风险AI系统(涉及个人信贷和就业决策等)面临最严格的法规。这些系统的提供者必须在数据库中注册,并进行质量管理和风险控制,雇佣人类监督员并报告相关事件。
  3. 美国立法动向
    • 科罗拉多州通过了一项法律,要求AI开发者披露有关“高风险”AI系统的信息,并发布系统的能力和局限性摘要。
    • 纽约市禁止雇主使用未经一年内偏见审计的自动化工具筛选候选人。

结论

  • Google允许生成式AI在高风险领域中应用,但强调必须有严格的人类监督机制。
  • 其他AI公司如OpenAI和Anthropic对高风险决策采取更为严格的限制措施。
  • 各国监管机构正积极审查用于自动决策的AI系统,以防止偏见结果的发生。

Source:https://www.aibase.com/news/14079