汤普森山枪击案发生后,OpenAI 的反应速度确实快得惊人。但仔细看看他们拿出的“解决方案”,却让人心里咯噔一下。
原本,加拿大法律专家让 – 克里斯托夫·贝利尔 – 皮蓬早就说过,OpenAI 现在的做法,本质上是用企业监控把民主监管给替换掉了。
悲剧其实早有预兆
在案发前几个月,18 岁的枪手杰西·范·鲁滕纳已经在 ChatGPT 上发帖,内容涉及枪支暴力。账号被禁了,可 OpenAI 没把这事儿报给警察。
这一疏忽,最后导致了 8 条人命。
他们承诺了什么?
出了事,OpenAI 立马改口,承诺做三件事:
- 直接报警:发现威胁直接告诉加拿大皇家骑警。
- 回头看:重新检查以前那些被标记的账号。
- 请专家来:让加拿大专家进他们办公室帮忙定规矩。
真正的麻烦在哪?
教授贝利尔 – 皮蓬看得很透。他指出的问题是:OpenAI 现在其实是在走一条危险的路。
他们不再去深究模型是怎么设计、怎么训练的,反而把火力全开对准了用户的每一句话。
这就引出了三个让人担心的点:
- 没人负责:到底报不报、报什么,全看 OpenAI 自己高兴,外面根本没人查,也没人知道标准是什么。
- 大家不敢说:本来大家找聊天机器人是因为信任它的隐私。现在要是每一句话都可能被警察盯着,那些正处在心理危机里、想求助的人,估计第一反应就是闭嘴。到时候,谁还愿意开口?
- 主动避责:这种“自愿配合”看着挺美,但更像是一种策略。先答应你一些宽松的条款,好让自己以后不用面对更严厉的法律监管。
到底该管什么?
我觉得,真正的 AI 监管,不该只盯着“谁在说话”,得去看看“说话的工具”本身到底有什么问题。
现在大家提的建议,方向其实是对的:
- 得有人盯着系统:组建个独立的第三方团队,把心理健康专家和法律专家拉进来评估风险,别总让公司自己说了算。
- 得检查模型本身:得看看模型对暴力倾向到底是怎么反应的,开发阶段到底做过哪些压力测试。
最后想问一句
现在 OpenAI 正忙着跟全球政府谈合作,汤普森山枪击案成了他们的“标杆案例”。
但仔细想想,我们真的只是拿回更安全的技术了吗?还是说,我们正在不知不觉中,允许一家私营公司搭建起一张巨大的数字化监控网?
这问题,恐怕没那么简单。
