未来即现在的映象:当前AI算法的创造极限
未来即现在的映象:当前AI算法的创造极限

未来即现在的映象:当前AI算法的创造极限

今日AI系统的创造极限是什么,人类是否能够超越它们?古希腊预言家忒瑞西阿斯(Tiresias)的智慧如何映射于此?

“未来成为当下的模拟空间。” ——《了解忒瑞西阿斯》,Barbara Eder。

Barbara Eder在她最近发表的文章《像忒瑞西阿斯看待》中,提出了围绕AI中算法和数据的辩论的核心主题。机器是否能够预测未来,还是它们只是在创造概率小说?

悲观的标题承诺,当这种现代AI能够承担日益复杂的任务时,创造力将灭亡。但如果我们深入研究Eder所使用的文献来源,我们不仅可以找到AI的极限,还可以推导出一些个体人类仍然可以利用的机会。因为最终,机器仍然是我们自己的映像:理解和超越自己的限制总是启发了新的创造方式。这些是机器尚不了解的机会。

一开始,Eder回顾了现象学社会学创始人Alfred Schütz的文章《忒瑞西阿斯,或者我们对未来事件的了解》。这将在下文更详细地讨论,然后回顾当代机器学习的“经典”范式:监督式、非监督式和强化学习。

过去存在于未来之中

但如果我们从这样的假设出发,认为这样的系统能够呈现每一种可能的创意产物,包括那些尚不存在的产物,会发生什么呢?因此,我们再次采用Schütz的观点来解释关于忒瑞西阿斯的古希腊传说 – 一个看到雅典娜赤裸的男人并丧失了视力。作为对他不幸的补偿,他被赋予了体验未来的能力。然后,作为一个失明的先知,他被迫在没有自己现在的情况下预知未来。

Schütz利用这个神话中的人物来探讨人类对未来的知识是如何由过去的经验决定的。在这个类比中,他的纯粹现象学立场强调了当我们假设我们对未来的预测是正确的时,我们遇到的悖论。

从Schütz的文章中最重要的概念被称为“预期的事后看法”。这是他从故事中得出的现象,比较我们对世界的感知与忒瑞西阿斯可能看到的任何事物。因为我们无法看到未来,任何预测或未来预测都不过是我们将事后看法转移到未来框架中的结果。Schütz还将其描述为在我们经历之前无法描述事件的范畴的不可能性。

“一旦我们的行动带来的状态得以实现,它将必然具有与所投影的完全不同的方面。在这种情况下,先见之明与事后看法之间的区别不是我们将事件放置在的时间维度所决定的。” ——《忒瑞西阿斯,或者我们对未来事件的了解》,Alfred Schütz。

关于未来的预测只存在于与我们已经知道的现在和过去相对应的情况中。更具体地说,我们对未来的想象总是依赖于我们已经处理的现有信息的理解。因此,这限制了我们对未来的期望,使其仅仅成为经验的投影。

对于最初的问题,仅仅在过去信息方面受过训练的AI(或在循环机器学习中的当前信息)只是将这一知识基础投射到潜在创建的任何事物中。

因此,任何创造都将缺乏新颖性,因为它受限于这个投射出的空间。这界定了我们可以重新获得新颖性的概念空间。正如 Karl Popper曾说过:

“当我们不再自居为命运的预言者时,我们可能成为自己命运的创造者。”

那么,这些形式上的限制在哪里呢?

在监督和非监督的机器学习方法中,从数学角度来看,实际上给出了一个明确定义的概率空间。我们基于已经存在的信息(例如,一个数据库)以及用于区分信息的变量的定义来构建这些模型。然后,我们使用一些传统的统计方法来进行训练,从而获得像Meredith Broussard所说的“强化统计学”。

但由于我们只是在使用数学,因此模型可以对给定信息做出的任何可能的陈述都已经内建到了系统中。因此,可能的输出在很大程度上受到模型能够发表的陈述的静态限制。当然,我们得到的区别在于给定输入情况下输出发生的可能性不同。

因此,这给我们留下了两个形式上的限制:

  1. 信息和变量定义了可能陈述的静态空间。
  2. 模型训练的信息存在于过去,不能对新信息做出反应。

这些限制再次表明了我们与忒瑞西阿斯所面临的困境相似。使用静态模型和预先存在的信息仅仅是基于过去知识和经验的预期事后看法。由此产生的AI的创造性表达仍然是对过去的投射,无法形成创新。因此,摆脱这个空间意味着摆脱数据情况和处理逻辑。

通过强化学习,我们可以减弱第二个限制。这种方法可以通过根据新信息更新一些变量来对当前情况做出反应。更具体地说,模型可以执行某些操作,感知结果,并相应地调整下一个类似情况的操作。模型中的概率不保持静态,而在其输出方面具有灵活性。

然而,同样地,模型的结构并没有发生变化,因此可能陈述的空间仍然遵循确定性模式。尽管未来输出的确定性仍然是“预期的事后看法”,但人们可能会问,这是否足以创造前所未有的创造性表达。随着这些模型复杂性的增加,也许在某个时刻,它将能够不断创造创新,有足够多的“未来现在时刻”。

为了进一步探讨这一想法,我们转向下一部分,探讨Elena Esposito的一些观点,她认为我们对“未来现在”的现在预测只是虚构。我们所能达到的仅仅是“现在的未来”的概念。

概率的虚构

《对可能的现实的虚构》一书中Elena Esposito勾画了小说和概率理论之间的相似之处。她认为,两者都发生在17世纪,并且这并非巧合。那是一个关于“可能世界”的世纪。

类似于我们之前的讨论,她从现实的开放性入手。也就是说,一个人类代理可以自行决定并带来前所未有的事件 – 事件的空间并没有被预先选择的理论或模型关闭。然而,统计学要求由于定义应用于有限和过去信息的变量而关闭此空间。即使统计模型足够接近于预测当前的人类行为,人类也会意识到它们并开始适应。换句话说,在每个决策中,我们都能够考虑到不确定性、计算的概率以及其他人基于其决策的统计知识。这启动了一个将另一个人的意图纳入我们自己意图的递归过程。

因此,概率理论不仅是一种观察工具,还是一种实际推理工具。由于预测未来的爆炸性复杂性,我们不可能把握未来现在的真相或现实性 – 它仅仅是虚构,最多只是观察观察者的工具。Esposito美妙地总结了这一点:

“现实是不太可能的,而这就是问题所在。”

这将让我们处于何地?以这种方式对未来现在的预测只是虚构。尽管如此,作为实际推理的工具,它给了我们研究“现在的未来”的机会。它为我们提供了一个客观的基础,用来讨论我们试图预测什么以及我们如何做到的。尽管这不一定与未来相匹配,但它确实有助于我们规划未来。

现在假设机器学习模型能够预测未来的每种可能的创造性表达,这意味着我们不再需要从经验中学到任何东西。AI的处理模式已经涵盖了每一个潜在的方面。由于统计学,我们不仅减少了对未来的不确定性,还剥夺了未来的新信息。

但这只会给我们已经通过模型的框架压制的产品 – 类似于铸铁质的大规模生产。创造性表达被缩减到概率空间,迟早会变成规定性而非预定性。因此,打开可能事件的空间也重新打开了新的和真正创造性表达的可能性。

人类创造力的机会?

自从出现新型AI形式,如ChatGPT或Dall-E出现以来,许多从事创意工作的人担心他们的未来。在自撰写的文章和逼真的图片之间,职业领域中的相关任务似乎无法避免地被机器取代。在降低成本和几乎消除创意到产品之间的时间之间,实际的作家和艺术家的技能变得越来越无关紧要。因此,对许多人来说,问题是在现代AI面前,创造力是否会消失。然而,根据之前讨论的观点,从其概率空间的可能性出口可以打开。

每个形式系统都基于独特的预设,从而预先确定了任何传入信息的处理逻辑。即使新信息可以由新事件生成,它也必须以相同的方式进行处理,因此只能在系统能够提出的可能陈述空间内移动。在机器学习的情况下,这是基于统计模型来塑造陈述可以遵循的模式。尽管训练模型的起点可以近似随机化,但分析过程总是依赖于这些模式。这些预定的模式然后为每个这样的系统的产品铸造了模型。

毕竟,这种模式作为基本原理的具体化是否总是能够实现具有同质结果的大规模生产?虽然理解这些预设需要更深入的数学和形式逻辑理解,但它们可以提供机器所不能实现的机会。我们对数据的解释可以超越机器的预定解释,因为我们是实施解释规则的人。创造性过程可以在集成对技术现实的质疑并找到数据的新颖解释时超越机器的能力。换句话说,要打破规则,我们必须先理解它们。也许未来艺术家的道路将通过工程领域?