AI-NEWS · 2024年 12月 18日

谷歌放宽高风险AI自动决策限制

Google 更新生成式AI 使用政策

Google 最近更新了其生成式AI 使用政策,明确规定客户可以在“高风险”领域(如医疗保健)部署其生成式AI 工具进行“自动化决策”,前提是必须有人类监督。

根据周二发布的最新版《生成式 AI 禁止使用政策》,客户可以利用 Google 的生成式AI 进行可能对个人权利产生重大负面影响的“自动化决策”。只要存在某种形式的人类监督,客户就可以在就业、住房、保险、社会福利等“高风险”领域使用 Google 的生成式AI 作出决策。

自动化决策

在AI 领域,自动化决策指的是基于事实和推理数据由AI 系统做出的决定。例如,一个系统可以自动决定是否批准贷款申请或筛选求职者。

行业对比

  • OpenAI:禁止其服务用于与信用、就业、住房、教育、社会评分和保险相关的自动化决策。
  • Anthropic:允许在法律、保险、医疗等高风险领域使用其AI 进行自动化决策,但需要“合格专业人士”的监督,并要求客户披露这些用途。

监管趋势

监管机构对影响个体的自动化决策 AI 系统进行严格审查,担心该技术可能产生的偏见结果。研究表明,在批准信用和抵押贷款申请中使用的AI 可能会延续历史上的歧视问题。非营利组织人权观察呼吁禁止“社会评分”系统,认为这些系统可能会损害人们的隐私,并以偏见方式描述他们。

欧盟《人工智能法案》

高风险的 AI 系统(包括那些用于个人信用和就业决策的系统)面临最严格的监管要求。这些系统的供应商必须注册数据库、实施质量与风险管理措施、雇佣人类监督者并报告事件等。

美国法规

  • 科罗拉多州:通过法律,要求AI 开发商披露“高风险”AI 系统的信息,并发布系统功能和限制的总结声明。
  • 纽约市:禁止雇主使用自动化工具进行求职者的筛选决策,除非该工具在过去一年内已经进行了偏见审核。

Google 的立场

Google 对 AI 应用程序监管的态度表明了其在高风险领域允许自动化决策的同时强调人类监督的重要性。这反映了AI 技术的潜力以及对其潜在风险的警惕。

Source:https://www.aibase.com/news/14068