科技专家表示:AI需与人类合作,而不是取代我们
科技专家表示:AI需与人类合作,而不是取代我们

科技专家表示:AI需与人类合作,而不是取代我们

科技作家Cory Doctorow表示,不要被AI的炒作或期望所迷惑。

基于语言模型的聊天机器人ChatGPT于2022年11月推出。许多人已经开始使用这个免费的AI系统来自动执行任务。但批评者担心,没有规范管理,这种强大的技术可能会带来破坏性后果。(Sebastien Bozon/AFP via Getty Images)

使用ChatGPT,从制作简历到写感谢信,甚至是婚礼誓词,这已经成为了AI如何融入数百万人日常生活的一个衡量标准。

支持AI的人将这项技术视为解决人类最大问题的潜在答案。但持怀疑态度的人警告说,AI可能会给我们的社会带来长期的损害,削弱教育,消灭工作岗位,甚至可能威胁文明本身。

科技作家、《The Internet Con: How to Seize the Means of Computation》的作者Cory Doctorow不信服与AI相关的所有炒作或期望。

“技术从1到60然后永远保持不变的不可避免性,这并不是真的…我们一直在抛弃技术,包括人们喜欢的技术,对吧?”

Doctorow与麦克马斯特大学数字社会公共政策硕士项目执行主任Vass Bednar一同参加了一个关于AI承诺和危险的小组讨论。该小组讨论由IDEAS主持人Nahlah Ayed在2023年11月于安大略省斯特拉特福举办的Provocation Ideas Festival上主持。

主持人:那么,当我们说我们正在构建比我们更聪明的机器时,这意味着什么?机器比人类更聪明是什么意思呢?

CD(Cory Doctorow):我认为这意味着有人在说谎,因为考虑到我们对“聪明”没有一个可行的定义…你知道,将计算机描述为比你更精神或更聪明或任何其他我们没有一个好的经验性定义的形容词,就像一个固有的无法证伪的说法。

说我们有一台机器可以自动化事务,可以发现人类无法发现的事物,可以与人类合作作为一种合作伙伴来发现人类忽略的事物,那是可以的。但请记住,当他们说,“哦,我们有一个算法,可以捕捉放射科医生在查看你的肺部X光时犯的一些错误”时,他们的意思并不是放射科医生将花费与以往一样多的时间查看肺部X光,他们将从算法那里获得一个与人类有不同盲点的第二意见,然后他们会进行比较。如果事实证明他们意见不一致,那天就会少看一张X光片,因为肿瘤学家或放射科医生可以回去重新查看X光片以解决分歧。

  • 担心人工智能作为“存在性”威胁可能会分散注意力,Balsillie表示
  • AI“教父”Yoshua Bengio荣获加拿大最高科学奖

没有人投资于AI,希望放射科医生今后会在查看X光方面花费更多的钱。他们投资于AI,希望他们能解雇一半的放射科医生,并将查看X光的速度提高一倍。我认为,当你将所有AI想要自动化的重要事务加在一起,这些事务既具有重要性又对错误敏感,以至于通过将人与AI进行配对,可能可以改善系统的结果,使它们在没有成本节约的情况下共同工作,但在质量和可靠性上有所提高,然后将这些因为市场需求不足而被排除的应用去掉后,你会发现适用于AI的应用非常有限。

主持人:对于AI的能力或不足,我要承认我的无知。最近我听过一个节目,他们谈到了ChatGPT 4,一些研究人员认为它实际上可以进行推理,可以在从未见过独角兽的情况下内化绘制独角兽的指令,或者能够通过图灵测试或LSAT。Cory,你如何看待我刚才说的?

CD:嗯,好的,如果事实证明我们给律师的标准测试是一个聊天机器人可以回答的问题,也许我们评估律师的方式不够好,对吧?事实上,我完全支持这样的观点,即我们用来衡量人的优越性的任何评估,如果一个聊天机器人能够超越,那么它就应该被取消,我们应该采用更好的定性评估方法,可能在批量评估方面更难,但这样可以更好地描绘人们的能力和兴趣。

科技专家Cory Doctorow(左)和Vass Bednar(右)讨论了AI可能带来的潜在危险以及对其进行规范的必要性。他们的讨论是Provocation Ideas Festival的一部分。(Dominik Butzmann/Georgia Kirkos摄)

我以一个生活在美国的加拿大侨民的身份说话,我的女儿正在接受共同核心课程的教育,其中约三分之一的教学时间被用来教她如何参加标准化测试。因此,我认为我们可以达成共识,那些最初作为评估教育状况以及可能改进的方式的标准评估工具本身已成为目标。有一条法则,当一个度量标准成为目标时,它就不再作为两者之一有用。

我认为通过统计推断,你可以弄清楚即使你从未听说过独角兽,它应该是什么样子,这真的很酷。但我不知道这是否表明其中有一些智能的东西。我认为这告诉你一些关于统计推断的极限的有趣事物,这在哲学上是新颖、酷和有趣的。我只是不认为这能够证明我们应该围绕我们已经知道容易出错的推理引擎进行大规模的社会改造,而每一个可能出错的想法都被人为地解释为“人在环中”。

主持人:那么,Vass,请帮我理解一下为什么AI的先驱者如Geoffrey Hinton或Yoshua Bengio以及领先的公司和研究人员恳请政府进行监管。当涉及到AI时,他们的关切归结为什么呢?

VB(Vass Bednar):我认为我们对AI有这样一种观念,即如果我们以一种使我们都感到舒适的方式对其生产进行监管——我们觉得它是道德的或道义的,或者它是正确构建的,那么我们就可以稍微不太担心应用方面,对吧?因为我们正在试图同时进行两个对话。我们如何构建,然后我们如何使用这个?

Yoshua Bengio以在机器深度学习、人工神经网络等方面的工作而闻名,近期更因呼吁对AI研究进行监管而引起关注。(Andrej Ivanov/AFP via Getty Images)

就AI先驱为何担忧并提出这些警告而言,或许是因为他们的职责是积极进取,梦想着这项技术如何能够被使用,或应该被使用,并且将被广泛采用。你提到了大型语言模型以及我们与ChatGPT进行互动的情况。我是说,这难道不只是大规模用户测试吗?我们让人们尽情玩耍,并从模型中学到经验,最终变成了最大的公司之间为拥有主导模型而展开的竞赛,这些公司真的陷入了这种人才、流通、挖人的循环,以构建追求效率的模型。这种想法是,如果我们做事情更快,我们就能做得更好。如果我们只是知道多一点,我们就可以做出稍微更好的预测。我认为科瑞所说的关于辅助人类工作和人类思维的要素是至关重要的。

CD:在当前AI热潮之前,已经有很多批评者担心自动化偏见和算法偏见。当他们批评AI,进行通常被称为AI伦理学的活动时,他们所说的是AI并不是非常强大,对吧?AI可能会迅速做出一系列错误的决定,以至于我们可能无法评估它们。但这并不是AI的质量和力量的标志。

与此同时,谈论AI安全性而不同于AI伦理学的人工智能支持者,其实质是总有一天聊天机器人会醒过来,将我们全部变成回形针。他们所说的潜台词是,AI是如此强大,以至于需要进行监管,而如果它如此强大,那么它可能也是非常有价值的,对吧?这样强大的工具将在某一天彻底改变我们整个经济的各个方面。你的公司应该想方设法将AI融入其流程中。政府应该通过提供税收优惠、制定监管框架等方式,鼓励AI的投资。

当然,我们不要忘记,尽管监管很重要,但当一个垄断者或有意成为垄断者的企业寻求监管时,他们通常寻求的监管是一种可以阻止新进入者的规定。因此,垄断者的首选通常是根本不被监管,但其次的首选是“以一种只有我而不是我的竞争对手能够满足的方式对我进行监管”。

主持人:有没有你们知道的,实际上在AI方面领先进行监管的国家?

VB:加拿大试图在定义何时以及如何使用AI作为政府时做得很快。我认为这种快速的原型制作很重要,以便对这些问题做出透明的表态和披露——我们将如何,我们将与谁签订关于一些问题的合同。这是非常透明的。而且这几乎就像我们参与一场思想竞赛,因为在全球范围内关于框架应该是什么的问题上,我使用了复数的框架,但实际上因为这些事物没有地理位置,我们发现这种国家、亚国家的组织原则在这里并不奏效。