我们能阻止人工智能的幻觉吗?
我们能阻止人工智能的幻觉吗?

我们能阻止人工智能的幻觉吗?

随着人工智能的不断进步,一个重要问题浮出水面:“幻觉”。这些是由人工智能生成的输出,没有现实依据。幻觉可以是从小错误到完全奇怪和捏造的信息。这个问题让许多人怀疑他们是否可以信任人工智能系统。如果人工智能能够生成不准确甚至完全捏造的信息,并使其听起来与准确信息一样可信,那我们如何依赖它来进行关键任务呢?

研究人员正在探索各种方法来解决幻觉的挑战,包括利用大量验证信息的数据集来训练人工智能系统区分事实和虚构。但一些专家认为,完全消除幻觉的可能性也将扼杀人工智能有价值的创造力。

因为人工智能在医疗保健、金融和媒体等各个领域发挥着越来越重要的作用,因此风险很高。这一探索的成功可能对人工智能未来及其在我们日常生活中的应用产生深远影响。

为什么人工智能会产生幻觉

像ChatGPT这样的生成式人工智能系统有时会产生“幻觉”——即没有基于真实事实的输出,这是因为这些系统生成文本的方式。在生成回复时,人工智能基本上是根据之前出现的单词来预测下一个可能的单词。它不断地这样做,以构建完整的句子和段落。

问题在于,一些单词接下来出现的概率并不能可靠地确保结果句子是事实的,宾夕法尼亚大学计算机与信息科学系教授克里斯·卡利森-伯奇说。人工智能可能会串联起听起来很合理但实际上不准确的单词。

ChatGPT对基本数学的困难凸显了其文本生成方法的局限性。例如,当要求它将两个在其训练数据中遇到的数字相加,比如“二加二”,它可以正确地回答“四”。然而,这是因为它认为在短语“二加二等于”之后出现“四”的概率很高,而不是因为它理解数字和加法的数学概念。

这个例子展示了系统对训练数据中的模式的依赖如何导致在需要真正推理的任务中失败,即使是在简单的算术中也是如此。

“但是,如果你拿出两个它以前从未见过的很长的数字,它就会简单地生成一个任意的彩票号码。”卡利森-伯奇说道,“这说明了ChatGPT和类似的语言学习模型(LLMs)所使用的这种自回归生成方法使得执行基于事实或符号推理的任务变得困难。”

因果推理人工智能

消除幻觉是一项艰巨的挑战,因为它们是聊天机器人运作的自然部分。实际上,其文本生成的变化性和略微随机的特性是使得这些新型人工智能聊天机器人质量如此出色的一部分。

“一旦你让模型更加确定性,基本上你迫使它预测最可能的单词,你会大大限制幻觉,但你将破坏模型的质量,因为模型将总是生成相同的文本。”西门子公司的人工智能专家玛丽亚·苏哈雷娃在接受采访时说道。

虽然使用语言学习模型(LLMs)消除幻觉可能并不可行,但卡利森-伯奇指出,已经开发出了有效的技术来减少其发生率。一个有前途的方法称为“检索增强生成”。系统不仅依赖于人工智能现有的训练数据和用户提供的上下文,还可以搜索维基百科或其他网页上的相关信息。然后,它使用这些(据信更加准确的)信息来生成更准确的摘要或回复。

减少幻觉的另一种方法是使用“因果推理人工智能”,这使得人工智能可以通过改变变量并从多个角度审视问题来测试不同的情景。

“确保数据集正确,并为被视为合理结果的范围建立防护措施可以防止幻觉的出现。”UserExperience.ai的创始人托尼·费尔南德斯说,“然而,最终的答案是,无论人工智能过程有多么复杂,人类都需要参与并提供监督。”

帮助减少AI错误的公司Aporia的领导者利兰·哈森表示,要阻止人工智能胡编乱造,我们应该从网络安全领域制定防火墙来阻止黑客的数据入侵中学习。关键在于实施AI防护措施——旨在实时过滤和纠正人工智能输出的积极措施。这些防护措施充当第一道防线,识别和纠正幻觉,并阻止潜在的恶意攻击。

“完全消除幻觉是具有挑战性的,因为这些人工智能应用程序依赖的知识源可能包含不准确或过时的信息。”他补充道。

对创造力的影响

在AI生成的内容方面,幻觉可能是一把双刃剑。卡利森-伯奇表示,在诊断医疗状况、提供财务建议或总结新闻事件等准确性至关重要的情况下,与现实偏离的情况可能会带来问题,甚至是有害的。

然而,在写作、艺术或诗歌等创造性追求的领域中,AI的幻觉可以是一个宝贵的工具。它们脱离现有的事实信息,涉足想象力,这可以推动创造过程,促使新颖和创新的想法涌现。

“例如,如果我想模仿自己的创作风格,我可以检索我过去写过的故事的例子,然后让语言学习模型按照类似的风格进行跟随。”他补充道。

人工智能系统中幻觉与创造力之间的联系与人类想象力的情况类似。就像人们经常通过让思维超越现实的边界来产生创造性的想法一样,生成最具创新和原创性输出的人工智能模型也倾向于偶尔产生与现实世界事实不符的内容,Domino Data Lab的人工智能战略负责人凯尔·卡尔森在一次采访中指出。

“显然,对于人工智能模型和人们来说,有时这是完全有道理的,以防止造成伤害。”他补充说道,“然而,就人工智能模型而言,我们可以两者兼顾。我们可以和应该在给定人工智能应用的层面上消除幻觉,因为为了被采用并产生影响,它必须尽可能地按预期行事。然而,我们也可以取消这些限制,提供更少的上下文,并使用这些人工智能模型来促进我们自己的创造性思维。”