AI-NEWS · 2026年 5月 1日

OpenAI 泄露:为何禁止聊“哥布林”?

4 月 30 日,Ars Technica 发了一篇报道,说 OpenAI 还没正式发布的 GPT-5.5 系统提示词漏出来了。这份指令集大概 3500 词,里面有个挺奇怪的条款:除非你问的问题跟它直接相关,否则别跟 AI 聊“哥布林”、“精灵”、“浣熊”、“巨魔”甚至“鸽子”。

这听起来像是为了限制话题范围,但仔细一看,这其实是个技术补丁。

有技术圈的朋友分析过,最近很多人吐槽说,GPT-5.5 在聊些完全不搭边的现代话题时,会突然蹦出“哥布林”这种词。比如聊二战历史,突然插入一段关于哥布林战争的描述。这其实是模型在生成过程中“飘”了,也就是我们常说的“幻觉”。OpenAI 加这条禁令,就是为了强行拉住模型,别让它发散得太离谱。

而且,这种针对特定生物的“黑名单”好像是 GPT-5.5 才有的新策略。早期的模型文件里没发现过。我猜原因可能是,大模型在逻辑推演太复杂的时候,对某些特定词汇会产生某种奇怪的“过敏”或“幻觉”。工程师们只能通过在底层代码里下死命令,来强行压制这种不稳定的表现,保证输出看起来像个正常人。

说实话,这事儿在社交媒体上挺火的,大家觉得这规定挺逗。但剥开这层“整活”的外衣,背后其实是大模型商业化前必须面对的一个硬骨头:怎么控制得够细,又不把模型憋坏了。

比如,我们要怎么让 AI 听懂“哥布林”这个词,但在聊别的普通话题时又坚决不提它?这中间的平衡很难找。随着 GPT-5.5 快要发布了,工程师们得一边想办法消除这些“幻觉”干扰,一边尽量别把模型的创造力给锁死了。

最后提一句,这次泄露的内容主要是 OpenAI 内部调试用的,展示了他们从早期版本到 5.5 版,在抑制幻觉和控制逻辑上确实下了不少功夫,进化挺明显的。至于这些限制到底能管多久,或者会不会把用户逼到用别的模型去聊奇幻生物,咱们还得再看看后续。

火龙果频道