大语言模型(LLMs)如 OpenAI 的 ChatGPT 正深刻改变着人工智能与人类互动的方式,生成的文本常常让人难以分辨是机器还是人类所写。
然而,尽管这些模型的能力令人印象深刻,但它们生成的内容却常常存在明显的不准确性,这些错误通常被称为 “AI 幻觉”。
但最近,格拉斯哥大学的学者 Michael Townsen Hicks、James Humphries 和 Joe Slater 在《伦理与信息技术》杂志上发表论文,提出这些错误更应被视为 “废话” 而非 “幻觉”。
大语言模型的主要任务是生成与人类语言相似的文本,而非理解或传达事实。因此,将这些模型产生的错误称为 “幻觉” 实际上是一个误导性的隐喻,因为它暗示了 AI 拥有感知和传达真相的意图。
学者们引用了哲学家 Harry Frankfurt 对 “废话” 的定义:与说谎者不同,废话制造者并不在意所说内容的真假,只关心其能否达到某种效果。按照这一标准,LLMs 更像是 “废话制造者”,因为它们只关心生成的文本是否符合人类语言模式,而不在意其真实性。
这一论点的重要性在于,它改变了我们理解和应对 LLMs 错误的方式。如果我们认为这些错误是 “幻觉”,可能会错误地认为 AI 试图传达某种被误解的信息。
而实际上,LLMs 只是在统计模式下生成看似合理的文本,没有任何内在的机制来确保事实准确性。这种误解可能会导致技术领域内对这些工具能力的过度炒作,以及公众对其功能的不必要担忧。
OpenAI 也认识到了这一问题,并在努力提高 ChatGPT 的事实准确性。该公司在 2023 年的一篇博客中指出,通过利用用户反馈,GPT-4 的事实准确性比 GPT-3.5 提高了 40%。然而,学者们强调,仅仅提高准确性还不够,真正需要的是正确理解和传播这些 AI 工具的局限性。
最终,学者们警告道,将 AI 生成的错误称为 “幻觉” 不仅不准确,还可能导致错误的解决方案和 AI 对齐策略的制定。与其迷信 AI 具备感知和理解能力,不如正视其 “废话制造者” 的本质,避免对这些技术的错误期望。
“将聊天机器人生成的不准确信息称为‘幻觉’,助长了科技爱好者对其能力的夸大宣传,同时也可能在公众中引发不必要的担忧。”——格拉斯哥大学 Michael Townsen Hicks