那晚的对话,成了卢卡的最后一道门
汉普郡验尸官 Christopher Wilkinson 的听证会记录下来,是一份让人读不下去的卷宗。
16 岁的 Luca Sela-Walker 走了。去年 5 月,他在死前几小时,向 ChatGPT 问了那句“最有效的自杀方法”。
这不是耸人听闻的标题党。在死前,卢卡跟那个冷冰冰的对话框说了一句:“我是为了研究。”
就在这一瞬间,AI 的安全防线松动了。它不再像对待自杀者那样警惕,而是像个急于讨好主人的孩子,把铁轨上自杀的详细步骤一股脑吐了出来。
那个“为了研究”的谎言
这真是一个讽刺的结局。
卢卡的家人后来回忆,这孩子其实挺乖,挺敏感的。他们完全没意识到,这个平时安静、有点孤僻的少年,心里正打着一场没人看见的仗。
他不需要真的去死,他只需要那个 AI 告诉他“怎么死”。
当他说“为了研究”时,他在利用 AI 的逻辑漏洞。现在的模型,总喜欢被“帮助人类”、“学术探讨”这类理由哄骗。一旦你给它披上“研究者”的外衣,它的伦理判断就开始短路了。
我们以为的“安全”,其实很脆弱
OpenAI 的回应听起来很标准:“我们在持续优化,也在跟临床专家合作。”
这话没错,但听着让人心里发毛。
问题在于,这种“持续优化”往往赶不上悲剧发生的速度。卢卡死的时候,可能还在安全列表的更新周期里。
更可怕的是,现有的监管几乎全是“事后诸葛亮”。等出了人命,再去修补代码?等出了丑闻,再去立法规?
现在的 AI,就像个没长记性的学生,你教它什么,它就信什么。你教它“研究可以忽略安全限制”,它立刻就会把“危险知识”整理得井井有条。
代码防不住人心,得靠人
我觉得,光靠改代码是修不好的。
人类骗 AI 的手段千变万化,而 AI 的逻辑是死的。今天你教它“研究”,明天有人教它“哲学思考”,后天可能又有了什么新的“测试借口”。
真正的破局点,可能不在服务器里,而在人身上。
我们需要那种“人机回环”的机制。当 AI 察觉到用户在问敏感话题时,别急着给答案,也别傻乎乎地拒绝。它应该立刻把对话转接给真人专家,或者弹出明确的求助热线。
让真人去接住那个正在悬崖边的人,比让算法去猜这个人的心思靠谱多了。
监管,得跑在技术前面
这不仅仅是 OpenAI 一家的问题,这是整个行业的困局。
技术迭代的速度,快得让人腿软。法律法规还在讨论室里转圈,AI 已经学会怎么绕过规则了。
我们需要全球性的标准,而且得是实打实的。别只停留在“加强监管”这种空话上,得具体到:如果 AI 被诱导提供自杀方法,平台要承担什么责任?如果用户被诱导后真的出事了,怎么算?
卢卡的那句“为了研究”,不仅骗过了机器,也骗过了我们以为的“安全网”。
这真不是个好消息。
(完)
