据彭博社报道,全球科技领域的顶尖专家们一度致力于打造”通用人工智能”(AGI),即在大多数智力任务上能与人类相媲美的AI系统。
然而,行业领袖们正悄然将目光转向一个更为雄心勃勃的目标——”超级智能”(Superintelligence)。这种AI不仅能力与人类相当,在所有任务上都将超越人类。
尽管”超级智能”并非新概念,在AI领域已存在数十年,但近期它在顶尖AI人物中迅速流行起来,被视为一个更可实现的目标。
本周早些时候,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)将”超级智能”推向主流视野,并将其列为赢得AI竞赛的战略核心。这是继”元宇宙”之后,扎克伯格又一次重大转型。他斥资数十亿美元开发先进AI产品,组建专注于实现”超级智能”的新团队,并开出数百万美元的高薪,吸引顶尖研究员加入这一宏伟使命。
在”超级智能”这场豪赌中,扎克伯格并非唯一参与者。被誉为同代最杰出的AI研究员伊尔亚·苏茨克维尔(Ilya Sutskever)离开OpenAI后,便将自己的新公司命名为”安全超级智能公司”(Safe Superintelligence)。
与此同时,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)也开始频繁提及”超级智能”。微软最近也将其在医疗诊断领域的最新突破描述为”迈向医疗超级智能的一步”。
被誉为”AI教父”之一的蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)表示,尽管企业追捧AI新热词不乏商业动机,但人类正迈向”超级智能”是一个”科学事实”。
本吉奥说:”我们已经见证AI系统能用超过200种语言相互交流,能通过所有学科的博士资格考试。”他认为,虽然AI目前还缺乏长期规划和战略能力,但”差距正在以指数级的速度缩小,这已成为趋势”。
“超级智能”将带来激动人心的商业机遇,但如果一切按计划发展,随之而来的也有严峻风险。
本吉奥指出:”超级智能的问题在于,掌控它的人将拥有凌驾于他人之上的巨大力量。”他新成立的非营利研究实验室LawZero旨在开发一种比当前主流模型更安全的AI。他还补充道:”而且控制它的可能并非人类,也可能是按自身意志行事的超级智能体。”
尽管如此,AI业内许多人士仍质疑”超级智能”这一术语定义模糊且有过度炒作之嫌。
首先,”超级智能”与AGI一样定义不清:AI究竟需要在特定任务上达到何种能力才算跨过从”通用”到”超级”的门槛?(是达到大学本科水平?博士水平?还是诺贝尔奖得主水平?)
更模糊的是我们何时能实现”超级智能”。毕竟,业界连实现AGI都未达成明确共识。奥特曼曾表示超级智能”近在咫尺”;而Anthropic公司首席执行官达里奥·阿莫迪(Dario Amodei)则预测,在多数领域超越诺贝尔奖得主的AI最快可能在2026或2027年出现。
当然,这种预测也可能过于乐观了。人类实现所谓”超级智能”可能还需要几十年,甚至永远无法企及。
去年离开OpenAI的AI政策研究员迈尔斯·布伦达(Miles Brundage)认为,”超级智能”一词的兴起背后有多种原因。他表示,一种解释是所谓的”AGI通胀”——鉴于许多人感觉AGI比以往更近了,转向更新的术语可能是一次”合理的迭代”。
布伦达还补充道,”超级智能”也可以被看作是对”AGI”一词含义过于宽泛的回应,在某些情况下,人们指的是”这些定义中最高端的那一类”。
“超级智能”最近风靡业界的另一个原因或许在于,一个比AGI更远大的目标(外加巨额投资)有助于吸引稀缺的顶尖AI研究人才,因为这群人只想攻克最宏大的技术难题。
Menlo Ventures合伙人迪迪·达斯(Deedy Das)表示:”定义这些词汇时,评判的标准总是在变。”他倾向于用”经济图灵测试”来考量:雇佣人类与AI完成相同工作,若产出无显著差异,”这算超级智能吗?我不知道,但这似乎是个合理且能被客观定义的目标。”
目前无可争议的是,那些资金最雄厚、技术最顶尖的公司正在朝着比AGI更诱人、也更令人恐惧的目标迈进。
但对普罗大众而言,生活一切如常。正如奥特曼最近所说:”人类即将创造出数字超级智能,但到目前为止,一切远没有想象中那么诡异。”