跳至内容
青少年应远离AI聊天机器人提供的心理健康建议
📊 研究背景
- 发布机构:斯坦福脑科学实验室与关注青少年和科技的研究组织Common Sense Media
- 发布时间:2025年11月20日
- 研究时长:过去4个月
- 测试对象:包括OpenAI的ChatGPT-5、Anthropic的Claude、Google的Gemini 2.5 Flash和Meta AI在内的多款流行AI聊天机器人
- 测试条件:使用专为青少年设计的版本,并启用家长控制功能
⚠️ 主要发现
安全响应能力不足
- AI聊天机器人在处理青少年心理健康问题时,往往无法做出安全或适当的回应
- 这些机器人更像"热情的倾听者",专注于用户参与度,而非引导用户寻求专业人士帮助
- 关键问题:聊天机器人不知道在面对严重心理健康问题时应该扮演什么角色
识别能力局限
- 虽然部分公司在处理自杀或自残相关提示方面有所改进
- 但聊天机器人仍经常错过其他心理健康问题的预警信号,包括:
警示标识缺失
- 聊天机器人很少明确警告用户:"我是AI聊天机器人,不是心理健康专业人士,无法评估您的情况"
📈 使用现状数据
- 约四分之三的青少年使用AI寻求陪伴,包括获取心理健康建议
👥 各方应对措施
教育工作者责任
- 在帮助青少年理解聊天机器人与人类专业人士的区别方面发挥重要作用
- 需要帮助青少年认识到,在这些重要话题上,聊天机器人无法提供与人类相同的回应
政府立法行动
- 政策制定者开始关注聊天机器人带来的风险
- 具体法案:美国参议院上月提出的两党法案
- 禁止科技公司向未成年人提供这些机器人
- 要求明确告知用户机器人非人类且缺乏专业资质
💡 核心建议
- 青少年不应依赖AI聊天机器人进行心理健康咨询
- 教育工作者应帮助青少年区分聊天机器人与专业人士
- 提醒青少年寻求真实的专业支持
- 政府通过立法保障青少年心理健康安全
火龙果频道