为什么人工智能会产生幻觉?原因、对策和意外用途

随着人工智能技术的发展,“幻觉”这个词越来越多地被听到。这种现象是指人工智能生成的答案乍一看是正确的,但实际上是错误的。关键是,这是一个谎言。例如,像 ChatGPT 这样的大规模语言模型 (LLM) 可以自信地回答不存在的论文标题或虚构人物的生日。这个问题是动摇 AI 可靠性的重大问题,但其原因已在 OpenAI 2025 年 9 月发表的最新研究《Why Language Models Hallucinate》中得到阐明。

本文从两个角度详细解释了AI幻觉的成因。同时,我们将探索有效的对策和意想不到的创造性利用的可能性。对于任何想要更智能地使用人工智能的人来说,这是必看的内容。

什么是AI幻觉?基本机制及问题

AI幻觉是由大规模语言模型生成的“似是而非的谎言”。人工智能从大量数据中学习,但由于它旨在生成自然句子而不进行事实检查,因此它会输出不正确的信息。例如,如果你向他们询问某个特定历史事件的细节,他们可能会厚颜无耻地讲述一个不真实的故事。

这种现象是人工智能广泛采用的障碍。不可靠的答案可能会导致问题,尤其是在商业和教育环境中。根据 OpenAI 研究,幻觉的发生率因模型而异,但仍然是一个悬而未决的问题。那么为什么会出现这种情况呢?我们将在下面更深入地探讨主要原因。

原因1:预训练的结构限制导致的错误

AI幻觉的根本原因之一是预学习(预训练)机制。大规模语言模型经过训练,可以根据互联网上的大量文本数据来预测“下一个单词”。然而,由于这些数据没有被标记为“事实或错误”,因此人工智能仅针对语法自然的输出进行优化,而不会判断其是真是假。具体来说,人工智能在应对频繁模式(例如单词的语法和拼写)方面具有很强的能力,但在应对随机、低频信息(例如人名、生日和作品标题)方面却很弱。由于这些没有明确的规则,人工智能通过做出“合理的猜测”来弥补。结果,出现了幻觉。

  • 示例:在回答“___先生的生日是什么时候?”这个问题时,人工智能会根据数据估计出一个日期来回答,但这通常是不准确的。
  • 本质问题:由于统计学习,罕见事实无法准确预测。即使后续进行微调,也很难完全消除这个问题。

了解这种结构限制非常重要,以避免过于信任人工智能输出。

原因二:评价指标设计不当助长幻觉

另一个主要原因是AI模型评估指标(基准)的问题。目前的测试主要衡量准确率。设计使回答“我不知道”的选项处于不利地位是一个盲点。如果你随机回答一个人工智能不知道的问题,你可能会很幸运并得到正确的答案,但如果你诚实地回答“我不知道”,你的分数将为零。 OpenAI研究指出,这种评估方法是保存幻觉的一个因素。例如,旧模型的正确答案率为24%,幻觉率为75%,但通过在新模型中引入“我不知道”,正确答案率为22%,但幻觉率降低至26%。

  • 打个比方:在多项选择题测试中,如果提交白纸得0分,那么最好随机作答。同样鼓励人工智能“猜测”。
  • 影响:随着开发人员冒险支持“回答所有”模型,幻觉增加。

除非纠正这个设计缺陷,否则问题仍然存在。

幻觉对策:目标是能说“我不明白”的AI

减少幻觉的关键是让AI意识到不确定性。 OpenAI提出的解决方案是审查评估指标。尤其…

  • 惩罚措施:回答错误扣分,回答“我不知道”扣部分分。
  • 测量置信度:设置输出的置信度阈值,如果阈值较低则不要回答。
  • 新基准:将此规则纳入知识问题集中,并改变对开发人员的激励。

例如,设计类似问答节目的内容,其中通过(我不知道)是一个明智的策略。这使得人工智能不会盲目回答并提高可靠性。公司也在努力降低最新模型中的幻觉率,“诚实的人工智能”将成为未来的常态。

幻觉的意外用途:“谎言”产生创造力的价值

如果仅仅将幻觉视为一种缺陷,那就太浪费了。改变你的观点可以成为创造力的源泉。人工智能的“似是而非的谎言”对于小说和创意的产生也很有用。

  • 小说的例子:小说是感人的,就像莎士比亚的故事一样。 AI输出还可以创造新颖的故事。
  • 集思广益:疯狂的想法激发突破。 AI的幻觉激发了人类的想法。
  • 专家观点:可以将其视为“创造性错误”并用作创造性工具。

这也适用于日本的谚语:“人们更喜欢有梦想的谎言,而不是没有梦想的真理。”关键是有选择地使用它,在需要可靠性的情况下抑制它,并在创造性的情况下利用它。

摘要:与 AI 幻觉成功互动的技巧

人工智能幻觉是一个结构性问题,源于学习的局限性和评估的扭曲。然而,如果将不确定性纳入评估作为对策,则可以显着减少不确定性。另一方面,它也可以用作扩展创造力的工具。重要的是要了解双方并根据情况适当地使用它们。如果您正在寻找可靠性,请检查事实;如果您正在寻找创造力,请让它们自由产生。如果你以这种方式明智地使用人工智能,你就可以最大限度地发挥它的潜力。

参考资料: OpenAI “为什么语言模型会产生幻觉》论文及相关解释性文章。