AI-NEWS · 2026年 3月 24日

OpenAI 的妥协:监控还是安全?

汤普森山枪击案发生后,OpenAI 的反应速度确实快得惊人。但仔细看看他们拿出的“解决方案”,却让人心里咯噔一下。

原本,加拿大法律专家让 – 克里斯托夫·贝利尔 – 皮蓬早就说过,OpenAI 现在的做法,本质上是用企业监控民主监管给替换掉了。

悲剧其实早有预兆

在案发前几个月,18 岁的枪手杰西·范·鲁滕纳已经在 ChatGPT 上发帖,内容涉及枪支暴力。账号被禁了,可 OpenAI 没把这事儿报给警察。

这一疏忽,最后导致了 8 条人命。

他们承诺了什么?

出了事,OpenAI 立马改口,承诺做三件事:

  1. 直接报警:发现威胁直接告诉加拿大皇家骑警。
  2. 回头看:重新检查以前那些被标记的账号。
  3. 请专家来:让加拿大专家进他们办公室帮忙定规矩。

真正的麻烦在哪?

教授贝利尔 – 皮蓬看得很透。他指出的问题是:OpenAI 现在其实是在走一条危险的路。

他们不再去深究模型是怎么设计、怎么训练的,反而把火力全开对准了用户的每一句话

这就引出了三个让人担心的点:

  1. 没人负责:到底报不报、报什么,全看 OpenAI 自己高兴,外面根本没人查,也没人知道标准是什么。
  2. 大家不敢说:本来大家找聊天机器人是因为信任它的隐私。现在要是每一句话都可能被警察盯着,那些正处在心理危机里、想求助的人,估计第一反应就是闭嘴。到时候,谁还愿意开口?
  3. 主动避责:这种“自愿配合”看着挺美,但更像是一种策略。先答应你一些宽松的条款,好让自己以后不用面对更严厉的法律监管。

到底该管什么?

我觉得,真正的 AI 监管,不该只盯着“谁在说话”,得去看看“说话的工具”本身到底有什么问题。

现在大家提的建议,方向其实是对的:

  • 得有人盯着系统:组建个独立的第三方团队,把心理健康专家和法律专家拉进来评估风险,别总让公司自己说了算。
  • 得检查模型本身:得看看模型对暴力倾向到底是怎么反应的,开发阶段到底做过哪些压力测试。

最后想问一句

现在 OpenAI 正忙着跟全球政府谈合作,汤普森山枪击案成了他们的“标杆案例”。

但仔细想想,我们真的只是拿回更安全的技术了吗?还是说,我们正在不知不觉中,允许一家私营公司搭建起一张巨大的数字化监控网?

这问题,恐怕没那么简单。

火龙果频道