AI模型注定总是会产生幻觉吗?
AI模型注定总是会产生幻觉吗?

AI模型注定总是会产生幻觉吗?

大型语言模型(LLMs),如OpenAI的ChatGPT,都存在着一个共同问题:它们可能会创造虚构的信息。

这些错误范围广泛,有些奇怪而无害,比如声称金门大桥在2016年被搬运到埃及,有些则非常严重,甚至危险。

最近,澳大利亚的一位市长因为ChatGPT错误地声称他在一起重大贿赂丑闻中认罪,竟然威胁要起诉OpenAI。此外,研究人员还发现,LLM的幻觉可以被利用来向毫无戒备的软件开发人员传播恶意代码包。而且,LLMs经常提供不准确的心理健康和医疗建议,比如酒精消耗可以“预防癌症”。

这种编造“事实”的倾向是一种被称为幻觉的现象,它之所以会发生,是因为当今的LLMs – 以及所有生成式人工智能模型的开发和训练方式。

模型的训练

生成式人工智能模型并不拥有真正的智能。它们实际上是统计系统,可以预测词语、图像、语音、音乐或其他数据。这些模型通过提供大量来自公共网络的示例来进行训练,通过学习模式,包括上下文数据,来判断数据发生的可能性。

举个例子,对于一个典型的电子邮件结尾,“期待中…”,LLM可能会继续写“…回音”,这是基于它在训练中接触过的数以千计的电子邮件的模式。但这并不意味着LLM真的在期待回音。

伦敦玛丽皇后大学的博士研究员Sebastian Berns解释说:“目前的LLMs培训框架涉及隐藏或‘掩盖’以前的词汇,以获得上下文”,然后要求模型预测应该替换掉被隐藏的词汇。这在概念上类似于在iOS中使用预测文本并不断地选择建议的下一个词汇。

这种基于概率的方法在大规模应用中通常表现出色,但并不总是可靠的。尽管模型已经学会了许多词汇和它们的概率分布,但它们仍然会在一些情况下生成不合逻辑或虚构的信息。这就是为什么有时我们会看到LLM“编造”信息的原因。这也凸显出了在生成式AI开发和使用过程中的伦理和监管挑战,以确保信息的准确性和可靠性。

LLMs可以生成语法正确但毫无意义的内容,比如关于金门大桥的那个错误信息。它们也可能散布不实之词,传播其训练数据中的不准确信息。或者它们可能会混淆不同的信息来源,包括虚构的来源,即使这些来源明显相互矛盾。

LLMs并不是出于恶意这样做的。它们没有恶意,而真假的概念对它们来说毫无意义。它们只是学会了将某些词语或短语与某些概念关联起来,即使这些关联并不准确。

伦敦玛丽皇后大学的研究员Sebastian Berns说:“‘幻觉’与LLMs无法估计其自身预测的不确定性有关。通常情况下,LLM会被训练成始终生成输出,即使输入与训练数据非常不同。标准的LLM没有办法知道它是否能够可靠地回答一个查询或进行一项预测。”

解决幻觉问题

问题是,幻觉能够被解决吗?答案取决于你对“解决”一词的理解。

艾伦人工智能研究所的应用研究员兼工程师Vu Ha声称LLMs“现在和将来都会产生幻觉”。但他也认为,根据LLM的培训和部署方式,可以采取具体的方法来减少幻觉,尽管不能完全消除。

Ha在电子邮件中解释说:“考虑一个问答系统。通过策划高质量的问题和答案知识库,并将这个知识库与LLM连接,通过检索式的过程提供准确的答案,可以使其具有高准确性。”

Ha通过示例说明了依靠一个“高质量”知识库与一个精心策划的数据源相比,LLM的不同之处。他使用了一个问题:“谁是Toolformer论文的作者?”(Toolformer是Meta培训的AI模型),然后通过微软的以LLM技术为基础的Bing Chat和谷歌的Bard进行了测试。Bing Chat正确列出了所有八位Meta共同作者,而Bard错误地将论文归因于谷歌和Hugging Face的研究人员。

Ha说:“任何部署的LLM系统都会出现幻觉。真正的问题是,幻觉引起的负面后果是否超过了它所带来的好处。” 换句话说,如果模型没有明显的危害 – 例如,偶尔会出现日期或名称错误,但它在其他方面很有帮助,那么可能是值得权衡的。他补充说:“这是关于最大化人工智能的预期效用的问题。”

伯恩斯指出另一种已经成功用于减少LLMs幻觉的技术是来自人类反馈的强化学习(RLHF)。OpenAI于2017年引入了RLHF,它涉及训练一个LLM,然后收集额外的信息来训练一个“奖励”模型,并通过强化学习用奖励模型来微调LLM。

在RLHF中,一组来自预定义数据集的提示被传递给LLM以生成新的文本。然后,使用人类标注员对LLM生成的输出进行“有用性”的整体排名,这些数据用于训练奖励模型。然后,奖励模型可以接受任何文本,并为其分配人们认为它的表现有多好的分数,然后用于微调LLM生成的回应。

OpenAI利用RLHF来训练其多个模型,包括GPT-4。但伯恩斯警告说,即使是RLHF也不是完美的。

伯恩斯说:“我认为可能性的空间太大,无法完全将LLMs与RLHF‘对齐’。在RLHF设置中通常会训练模型生成一个‘我不知道’的答案[对于棘手的问题],主要依赖于人类领域知识,希望模型能将其推广到自己的领域知识。通常情况下它会成功,但有时可能会有点棘手。”

替代性观点

假设幻觉问题在今天的LLMs中无法解决,至少不是以现有的LLMs,那是一件坏事吗?实际上,伯恩斯并不这么认为。他认为,幻觉模型可以充当“共创伙伴”,从而促进创造力 – 提供的输出可能不是完全准确的,但仍然包含一些有用的线索。创造性地利用幻觉可以产生结果或思想的组合,这些结果或思想大多数人可能不会想到。

他说:“‘幻觉’只有在生成的陈述事实上不正确或违反任何一般的人类、社会或特定文化价值观时才会成为问题 – 在一个人依赖LLM作为专家的情况下。”他还说:“但在创造性或艺术任务中,能够产生意想不到的输出是有价值的。一个人可能会对查询的回应感到惊讶,因此被引导到一定的思维方向,从而可能导致新的思想连接。”

哈认为,今天的LLMs被要求达到了不合理的标准 – 毕竟,当我们错误记忆或以其他方式歪曲事实时,人类也会“幻觉”。但他认为,与LLMs相比,我们会因为模型在表面上看起来很好,但在进一步检查时包含错误而产生认知失调。

他说:“简而言之,LLMs就像任何AI技术一样都是不完美的,因此会犯错。传统上,我们可以接受AI系统犯错,因为我们期望并接受不完美。但当LLMs犯错时,问题就更加复杂了。”

事实上,解决幻觉问题的答案可能并不在生成式人工智能模型在技术层面上的工作方式。在今天,最好的方法似乎是以怀疑的眼光看待模型的预测。