OpenAI发布青少年AI安全标准蓝图,引发广泛关注
核心要点
OpenAI于2025年11月7日发布了一份针对青少年使用人工智能的安全标准蓝图,旨在引导公众和立法者关注青少年使用AI时的安全问题。
背景与动因
- 立法环境:美国多个州正在考虑AI安全法案,参议院正在推进一项禁止未成年人使用聊天机器人的法案
- 法律压力:OpenAI正面临一起涉及未成年人自杀的高调诉讼,引发公众对其平台青少年安全措施的广泛关注
蓝图主要内容
核心理念
OpenAI认为在推动AI技术在学校应用的同时,建立相关安全框架尤为重要。蓝图强调青少年应能安全可靠地访问AI,并防止潜在伤害。
具体建议
OpenAI提出了五项保护青少年的具体建议:
-
年龄识别与差异化处理
- 识别平台上的青少年用户
- 根据年龄采取适当的处理方式
- 建议ChatGPT根据用户年龄提供不同的响应
-
内容限制
- 通过政策禁止AI系统显示与自杀、自残、敏感或暴力材料相关的内容
- 避免鼓励危险行为或不切实际的体型标准
-
默认保护机制
- 无法确认年龄时,默认将用户视为18岁以下处理
-
家长监管工具
- 为父母提供家长控制工具
- 允许家长管理青少年账户的使用
-
持续改进
- 基于最新研究结果扩展保护功能
- 保障青少年与AI的互动安全
技术挑战
年龄验证技术仍面临挑战,许多未成年人可能轻易绕过现有规则。
未来方向
OpenAI正在探索多种措施增强青少年用户安全,并希望鼓励更多家庭和学校参与AI的监管和监督。
