AI-NEWS · 2024年 10月 26日

Do Large Models Also ‘Lie’? Harvard’s Latest Research Reveals the Truth About AI ‘Hallucinations’


### 总结

大型语言模型(LLMs)的出现,尤其是像ChatGPT这样的应用被广泛应用,彻底改变了人类与机器交互的方式。这些模型能够生成连贯且全面的文字内容,给人留下深刻印象。然而,尽管它们功能强大,但仍然容易产生“幻觉”现象,即生成看似真实但实际上编造、无意义或与提示不一致的内容。

哈佛大学的研究人员对LLM的“幻觉”现象进行了深入研究,并发现其根本原因在于模型的工作原理。LLMs通过机器学习从大量文本数据中构建概率模型,并基于单词共现的概率来预测下一个词,这意味着它们并不真正理解语言的意义,而是基于统计概率进行预测。

研究人员将LLMs比作“众包”,认为这些模型本质上输出的是“网络共识”。类似Wikipedia或Reddit这样的平台,LLM从大量的文本数据中提取信息并生成最常见的答案。由于大多数语言的使用是为了描述世界,因此LLM生成的答案通常是准确的。

然而,在遇到模糊、有争议或缺乏共识的话题时,“幻觉”现象就会发生。为了验证这一假设,研究人员设计了一系列实验来测试不同LLMs在各种话题上的表现。实验结果显示,LLMs在常见话题上表现出色,但在处理模糊或有争议的话题时准确性显著下降。

这项研究表明,尽管LLM是强大的工具,但其准确度取决于训练数据的质量和数量。因此,在使用LLMs特别是处理模糊或有争议的话题时需要谨慎对待输出结果。此外,该研究还为未来改善LLMs的能力提供了方向,如增强它们在模糊和有争议话题上的表现以及提高模型输出的可解释性。

链接

[论文链接](Copyright AIbase Base 2024, Click to View Source)

Source:https://www.aibase.com/news/12741