AI-NEWS · 2025年 11月 8日

OpenAI发布儿童AI安全标准

OpenAI发布青少年AI安全标准蓝图,引发广泛关注

核心要点

OpenAI于2025年11月7日发布了一份针对青少年使用人工智能的安全标准蓝图,旨在引导公众和立法者关注青少年使用AI时的安全问题。

背景与动因

  • 立法环境:美国多个州正在考虑AI安全法案,参议院正在推进一项禁止未成年人使用聊天机器人的法案
  • 法律压力:OpenAI正面临一起涉及未成年人自杀的高调诉讼,引发公众对其平台青少年安全措施的广泛关注

蓝图主要内容

核心理念

OpenAI认为在推动AI技术在学校应用的同时,建立相关安全框架尤为重要。蓝图强调青少年应能安全可靠地访问AI,并防止潜在伤害。

具体建议

OpenAI提出了五项保护青少年的具体建议:

  1. 年龄识别与差异化处理

    • 识别平台上的青少年用户
    • 根据年龄采取适当的处理方式
    • 建议ChatGPT根据用户年龄提供不同的响应
  2. 内容限制

    • 通过政策禁止AI系统显示与自杀、自残、敏感或暴力材料相关的内容
    • 避免鼓励危险行为或不切实际的体型标准
  3. 默认保护机制

    • 无法确认年龄时,默认将用户视为18岁以下处理
  4. 家长监管工具

    • 为父母提供家长控制工具
    • 允许家长管理青少年账户的使用
  5. 持续改进

    • 基于最新研究结果扩展保护功能
    • 保障青少年与AI的互动安全

技术挑战

年龄验证技术仍面临挑战,许多未成年人可能轻易绕过现有规则。

未来方向

OpenAI正在探索多种措施增强青少年用户安全,并希望鼓励更多家庭和学校参与AI的监管和监督。

火龙果频道