专家称:大语言模型无法创造通用AI

AI资讯2个月前发布 ainav
59 0

11月30日消息,尽管人类常将语言能力视为智能的代名词,但最新研究表明,语言与智能之间并不存在直接等价关系。认知共振(Cognitive Resonance)风投公司的创始人本杰明·莱利(Benjamin Riley)在《The Verge》撰文指出,这对人工智能行业而言是个重要转折点。当前AI界对通用人工智能(Artificial General Intelligence, AGI)的全部期待,都寄托于大语言模型(Large Language Models, LLMs)这一技术路径上,但这种押注可能存在问题。

专家称:大语言模型无法创造通用AI

莱利在文章中强调:”关键问题在于,根据现有神经科学理论,人类的思维活动与语言系统之间存在重要区别。我们没有充分理由相信,仅通过构建越来越复杂精细的语言模型,就能创造出一种在智能水平上达到或超越人类的人工智能系统。虽然人类确实主要用语言来进行思考,但这并不等同于说语言本身构成了思维的本质。这个区别是科学事实与AI行业从业者所宣扬的未来愿景之间的分水岭。”

所谓AGI,是指能够理解、学习和执行任何智力任务的人工智能系统。理论上,AGI被认为可以解决癌症治疗、气候变化等重大人类难题。当前AI行业的领军人物们,正是通过宣称正在开发AGI,为其巨额研发投入和对环境造成的负面影响寻找合理性依据。

这种无序的资本投入背后,是整个行业对”规模效应”(scaling)近乎偏执般的追求:通过不断增加数据量,并持续堆砌GPU算力,AI公司得以让模型在问题求解和类人对话等方面的表现日益精进。

但莱利警告称:”无论我们建立起多少座数据中心,大语言模型的本质仍然是模拟人类语言交流的工具,而不是具备独立认知能力、能够自主思考推理的智能系统。”

如果语言对思维真的至关重要,那么剥夺语言就意味着剥夺了思维能力。然而,莱利指出事实并非如此。他引用了去年发表在《自然》杂志上的一篇评论文章中总结的相关研究。

例如,通过功能性磁共振成像(fMRI)观察发现,人类大脑在处理不同类型的认知任务时会激活不同的脑区:我们在解答数学问题和进行语言处理时,并非使用同一组神经元。此外,对失语症患者的临床研究也表明,尽管他们的语言功能受损严重,但其思维能力基本保持完好,仍然能够完成数学运算、理解他人情绪以及执行非语言指令等。

这种怀疑态度也得到了一些顶尖AI专家的支持。比如图灵奖得主、现代人工智能”教父”级人物杨立昆(Yann LeCun)就一直对大语言模型持保留意见。他认为,实现通用智能的正确路径应该是发展所谓的”世界模型”(world models),即通过大量三维物理世界数据的训练,让AI真正理解现实世界。

近期发表于《创意行为杂志》的一项研究进一步验证了大语言模型存在性能天花板的观点。这项研究使用数学公式评估AI”创造力”的上限,得出的结论令人沮丧:由于大语言模型本质上是基于概率的系统,在达到某个临界点后,它们将无法再生成既新颖独特又具有意义的内容。因此,该研究认为,即便是目前最先进的AI系统,也只能被归类为”称职的写手”,最多只能写出结构得体但缺乏创意的文章。

南澳大利亚大学工程创新教授、该研究的第一作者大卫·H·克罗普利(David H. Cropley)在声明中表示:”虽然AI能够非常逼真地模仿创造性行为,但在现有设计框架下,其创造能力的上限只是普通人类水平,永远无法达到专业人士或专家的标准。”

他补充说:”一位技艺精湛的作家、艺术家或设计师偶尔可以创作出真正原创且富有成效的作品。但大语言模型永远不会做到这一点。它输出的内容始终是平庸无奇的。如果各行各业过度依赖AI生成内容,最终只会得到大量缺乏新意、千篇一律的作品。”

莱利最后总结道:”诚然,AI系统或许能在特定范围内以有趣的方式重新组合和复用人类知识。但仅此而已。它将永远受限于我们输入到模型中的数据和训练语料库的词汇体系,本质上不过是一个被设定好的’语言工具’,不断重复那些已经被编码进其程序的陈词滥调。”

© 版权声明

相关文章