近日,《商业内幕》报道称,谷歌旗下DeepMind公司首席执行官德米斯·哈萨比斯在近期发表言论,强调扩大人工智能模型规模是实现通用人工智能的重要途径。

围绕着”规模法则”在人工智能发展中的作用,硅谷内部正展开一场持续性的辩论。
值得注意的是,刚刚凭借”双子星3号”(Gemini 3)获得广泛关注的DeepMind CEO德米斯·哈萨比斯近期明确表示:”当前我们必须将人工智能模型的规模推向极限,这将是实现通用人工智能的关键所在,甚至可能构成整个AGI系统的核心。”
需要说明的是,通用人工智能(Artificial General Intelligence,简称AGI)是指具备与人类相当或超越人类智能水平的人工智能形态,它能够像普通人一样展现各种复杂思维能力。目前AGI仍处于理论探索阶段,全球顶尖的AI研究机构都在为此进行技术攻关。
那么什么是”规模法则”?简单来说,这是机器学习领域的一个经验性规律,描述了模型性能与模型参数数量、训练数据量以及计算资源之间的可预测关系。在AI业内,它被视为大模型预训练的核心指导原则,可以用公式化表达为:更大的模型 + 更多的训练数据 + 更长的训练时间 = 更强的智能表现。
回到哈萨比斯的观点,在他看来,单纯依赖规模法则或许能够推动人工智能向AGI迈进。但他也谨慎地指出,最终可能还需要一到两个关键的技术突破才能真正实现AGI。
不过,”规模法则”并非毫无争议,它确实存在一些局限性。比如公开可获得的数据总量是有限的,而增加计算能力意味着需要建设更多的数据中心,这将导致训练成本不断攀升,并对自然环境产生压力。此外,部分关注人工智能发展的专家还担心,持续投入规模法则可能会出现边际效益递减的现象。
硅谷内部对于这一问题的讨论还在继续。比如前Meta首席AI科学家、近期宣布离职创业的法国科学家扬·勒康(Yann LeCun)就持有不同观点。他在今年4月的新加坡国立大学演讲中提到:”大多数真正有意思的问题在规模法则下表现得非常糟糕,你不能简单地通过堆砌数据量和计算资源来获得更聪明的人工智能系统。”
据悉,扬·勒康离开Meta的目的是打造一个不依赖于语言数据、而是基于空间数据构建”世界模型”的人工智能体系,这可以看作是对大语言模型的一种替代方案探索。