Meta开启AI透明时代:是时候提高AI透明度了
Meta开启AI透明时代:是时候提高AI透明度了

Meta开启AI透明时代:是时候提高AI透明度了

进展迅猛。在Meta推出其AI模型LLaMA 2不到一周的时间里,创业公司和研究人员已经使用它开发了聊天机器人和AI助手。公司开始基于该模型推出产品也只是时间问题。可以预见LLaMA 2可能对OpenAI、谷歌和其他公司构成的威胁。一个敏捷、透明、可定制的免费使用模型能帮助公司比使用OpenAI的GPT-4等大型、复杂的专有模型更快地创建AI产品和服务。

但真正引人注目的是Meta开放自身的程度。它将允许更广泛的AI社区下载该模型并对其进行调整。这可能有助于使其更安全、更高效。最关键的是,它能证明与AI模型的内部运作机制相比,透明度优于保密的好处。 时间再合适不过,也再重要不过了。

科技公司正纷纷将其AI模型释放到野外,我们看到越来越多产品中嵌入了生成式AI。但目前最强大的模型,如OpenAI的GPT-4,由其创造者严密掌控。开发者和研究人员通过网站获得这些模型的有限访问权限,不了解其内部运作的细节。这种不透明可能会导致未来出现问题,就像上周引起一些轰动的一篇新的非同行评审论文中强调的那样。斯坦福大学和加州大学伯克利分校的研究人员发现,与几个月前相比,GPT-3.5和GPT-4在解决数学问题、回答敏感问题、生成代码和进行视觉推理方面的表现更差。

这些模型缺乏透明度,很难确切说出原因,但不管怎样,结果应该谨慎对待,普林斯顿计算机科学教授Arvind Narayanan在他的评估中写道。它们更可能是由“作者评估的怪癖”而非证据造成的,证明OpenAI使模型变得更糟。他认为研究人员没有考虑到OpenAI已经对模型进行了微调以获得更好的性能,这无意中导致了一些提示技术不再像过去那样奏效。

这有一些严重的影响。 创业公司Hugging Face的AI研究员Sasha Luccioni说,那些为适应OpenAI模型的某一特定迭代版本而构建和优化自己产品的公司“100%”可能会看到它们突然出现故障并崩溃。当OpenAI以这种方式微调其模型时,例如,使用非常具体提示构建的产品可能不再像以前那样工作。她补充说,封闭模型缺乏问责制。“如果你有一个产品,并在产品中更改了某些内容,那么你应该告诉你的客户。”

像LLaMA 2这样的开放模型至少可以明确公司设计模型的方式以及使用了哪些训练技术。与OpenAI不同,Meta已经共享了LLaMA 2的整个配方,包括有关训练方式、所用硬件、数据标注方式和用于缓解伤害的技术的详细信息。Luccioni说,在该模型之上进行研究和构建产品的人们确切知道他们在研究什么。

她说:“一旦你可以访问模型,你就可以进行各种实验,以确保获得更好的性能,或获得更少的偏见,或者任何你正在寻找的东西。”

归根结底,AI的开放与封闭辩论归结为谁说了算。使用开放模型,用户拥有更多权力和控制权。使用封闭模型,你就受制于其创造者。

一个像Meta这样的大公司发布如此开放透明的AI模型,感觉像是生成式AI淘金热的一个潜在转折点。

如果依赖深受吹捧的专有模型构建的产品以令人尴尬的方式突然中断,而开发者对此无从得知原因,那么具有类似性能的开放透明AI模型将突然看起来是一个更有吸引力和更可靠的选择。

Meta这样做不是出于慈善。让其他人检测其模型的缺陷,它能从中获益良多。领导Meta的生成式AI工作的副总裁Ahmad Al-Dahle告诉我,公司将从更广泛的外部社区了解到的信息,用来不断改进其模型。

尽管如此,Luccioni说这仍然是一个朝着正确方向迈出的一步。她希望Meta的举动会给其他拥有AI模型的科技公司施加压力,考虑更加开放的路径。

她说:“我对Meta保持如此开放印象非常深刻。”