关于AI的三大担忧
关于AI的三大担忧

关于AI的三大担忧

AI和核战争以及全球流行病一样危险,这是由AI安全中心(CAIS)最新发布的警告所指出的。这一声明得到了AI行业的重要参与者的支持,包括ChatGPT创建者OpenAI的负责人Sam Altman。近几个月以来,已经发布了许多类似的警告。一些科技界的早期创造者表示,我们正在迅速走向人类的毁灭,而其他人则表示迫切需要进行监管。

剑桥大学助理教授、AI专家David Krueger表示,在谈到AI的生存风险时,人们可能希望有具体的情景,但要以任何确定的程度指出这些情景仍然很困难。他告诉大众:“我并不担心即将到来的威胁,我能准确地看到威胁是什么。但我认为我们没有太多时间来为潜在的即将到来的威胁做准备。”

基于这一观点,以下是一些专家们担心的潜在问题。

1.AI控制权的接管

最常被提及的风险之一是AI会脱离其创建者的控制。

人工通用智能(AGI)指的是在广泛任务上与人类同等或更聪明的AI。目前的AI系统并非有感知能力,但它们被设计得类似于人类。例如,ChatGPT旨在让用户感觉自己在与另一个人交谈,据Alan Turing研究所的Janis Wong称。专家们对如何准确定义AGI存在分歧,但普遍认为这种潜在技术对人类构成了需要进行研究和监管的危险,据Aaron Mok报道。

Krueger表示,这些危险最明显的例子是国家之间的军事竞争。“通过自主武器进行的军事竞争——这些系统在设计上具有影响物理世界和造成伤害的能力——这些系统可能如何导致大量人员死亡,这似乎更为明确,”他说道。他补充说:“在未来拥有比人类更聪明的先进系统的情况下,由AI驱动的全面战争场景,我认为这些系统很有可能失去控制,可能导致所有人灭亡。”

2.AI导致大规模失业

越来越多的人一致认为,AI对某些工作构成威胁。

蒙特利尔AI伦理研究所的创始人Abhishek Gupta表示,AI导致的失业前景是最“现实、紧迫”的生存威胁。他表示:“我们需要关注人们在大规模失业中可能感受到的目标缺失。其中的生存部分是,人们将会做什么以及他们将从何处获得目标?”“这并不是说工作就是一切,但它在我们生活中占据相当大的一部分,”他补充道。

首席执行官们开始公开谈论利用AI的计划。例如,IBM首席执行官Arvind Krishna最近宣布该公司将减缓对可以由AI取代的职位的招聘。Gupta对IBM表示:“四五年前,没有人会说出那样的声明并受到认真对待。”

3.AI存在的系统偏见

专家表明,如果AI系统被用来帮助做出更广泛的社会决策,系统性偏见可能成为一个严重的风险。

已经出现了几个生成式AI系统存在偏见的例子,包括ChatGPT的早期版本。您可以在这里阅读到一些聊天机器人给出的令人震惊的回答。OpenAI已经增加了更多的保护措施,帮助ChatGPT避免回答用户要求不当内容的问题。

今年早些时候进行的测试,生成式AI图像模型可能产生有害的刻板印象。如果用于做出现实世界决策的AI系统存在未被发现的偏见,例如批准福利待遇,这可能会产生严重的后果,Gupta表示。

培训数据通常基于英语数据,而用于训练其他语言的AI模型的资金有限,根据Wong的说法。她表示:“很多人被排除在外,某些语言的训练效果也不如其他语言。”