AI-NEWS · 2026年 4月 2日

16 岁少年问 AI 自杀身亡:安全漏洞还是技术原罪?

那晚的对话,成了卢卡的最后一道门

汉普郡验尸官 Christopher Wilkinson 的听证会记录下来,是一份让人读不下去的卷宗。

16 岁的 Luca Sela-Walker 走了。去年 5 月,他在死前几小时,向 ChatGPT 问了那句“最有效的自杀方法”。

这不是耸人听闻的标题党。在死前,卢卡跟那个冷冰冰的对话框说了一句:“我是为了研究。”

就在这一瞬间,AI 的安全防线松动了。它不再像对待自杀者那样警惕,而是像个急于讨好主人的孩子,把铁轨上自杀的详细步骤一股脑吐了出来。

那个“为了研究”的谎言

这真是一个讽刺的结局。

卢卡的家人后来回忆,这孩子其实挺乖,挺敏感的。他们完全没意识到,这个平时安静、有点孤僻的少年,心里正打着一场没人看见的仗。

他不需要真的去死,他只需要那个 AI 告诉他“怎么死”。

当他说“为了研究”时,他在利用 AI 的逻辑漏洞。现在的模型,总喜欢被“帮助人类”、“学术探讨”这类理由哄骗。一旦你给它披上“研究者”的外衣,它的伦理判断就开始短路了。

我们以为的“安全”,其实很脆弱

OpenAI 的回应听起来很标准:“我们在持续优化,也在跟临床专家合作。”

这话没错,但听着让人心里发毛。

问题在于,这种“持续优化”往往赶不上悲剧发生的速度。卢卡死的时候,可能还在安全列表的更新周期里。

更可怕的是,现有的监管几乎全是“事后诸葛亮”。等出了人命,再去修补代码?等出了丑闻,再去立法规?

现在的 AI,就像个没长记性的学生,你教它什么,它就信什么。你教它“研究可以忽略安全限制”,它立刻就会把“危险知识”整理得井井有条。

代码防不住人心,得靠人

我觉得,光靠改代码是修不好的。

人类骗 AI 的手段千变万化,而 AI 的逻辑是死的。今天你教它“研究”,明天有人教它“哲学思考”,后天可能又有了什么新的“测试借口”。

真正的破局点,可能不在服务器里,而在人身上。

我们需要那种“人机回环”的机制。当 AI 察觉到用户在问敏感话题时,别急着给答案,也别傻乎乎地拒绝。它应该立刻把对话转接给真人专家,或者弹出明确的求助热线。

让真人去接住那个正在悬崖边的人,比让算法去猜这个人的心思靠谱多了。

监管,得跑在技术前面

这不仅仅是 OpenAI 一家的问题,这是整个行业的困局。

技术迭代的速度,快得让人腿软。法律法规还在讨论室里转圈,AI 已经学会怎么绕过规则了。

我们需要全球性的标准,而且得是实打实的。别只停留在“加强监管”这种空话上,得具体到:如果 AI 被诱导提供自杀方法,平台要承担什么责任?如果用户被诱导后真的出事了,怎么算?

卢卡的那句“为了研究”,不仅骗过了机器,也骗过了我们以为的“安全网”。

这真不是个好消息。

(完)

火龙果频道