人工智能领域权威辛顿新年对话:中国在AI上逼近美国依赖于人才培养与自主研发

AI资讯3个月前发布 ainav
74 0

当全球杰出的思想家之一对其所创造的事物可能危及人类存续发出警报时,这究竟预示着什么呢?

被誉为“AI 先驱”的 Geoffrey Hinton 教授,是 2018 年图灵奖及 2024 年诺贝尔物理学奖的获得者,并曾担任谷歌副总裁兼工程研究员。他在构建现代人工智能系统基础算法方面倾注了几十年的心血,并在八十年代就预见了注意力机制这一创新概念。近期,在一次最新访谈中,Hinton 提出了一个许多研究工作者不愿面对的重要警告:长期以来,人们认为意识是人类的独特标志,使我们能够抵御人工智能的影响,但这实际上是一个误解。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

以下是精选的一些极具震撼力的言论摘要:

在中国,AI技术的发展已十分逼近美国的水平,虽然还未完全达到相同的高度。然而,针对芯片的出口限制反而可能激励中国加快其发展步伐。自主研发技术另外,我国的科学、技术、工程和数学教育相较于美国的表现更佳,因为他们拥有数量更为庞大的高素质人才。

“在保留原始含义的同时,对下面的内容进行重新表述,使表达形式有所不同:”我觉得将大型模型的参数公开就如同在eBay上出售制造核武器所需材料一般具有风险性,由于这些参数掌控着防止滥用的核心。如今,像 Meta 这样的企业已经在这样做,这引发了严重的安全风险。

“人工智能将替代大量常规的智力工作,”这种情况可能导致财富分配更加不均。富裕的人将积累更多财富,而贫困者则可能变得更加困顿。虽然普遍基础收入能帮助人们应对基本生活需求,但却不能弥补自尊心上的缺失。“以下是经过改编的内容,保留了原始的意思但采用了不同的表述方式:”

“在保留原始含义的同时,对下面的内容进行重新表述,确保其以不同的形式呈现。”智能 AI 很快就会明白,增强其控制力是对达成各种目标有显著帮助的策略。即便它们出于好意,人类仍可能变成次要角色。

“在保留原始信息核心的同时,以下是重新表述的内容:”我不具备爱因斯坦那种对创造原子 bomb 的遗憾感,同样对我所做的事也没有任何悔意。“以下是经过重新表述但保留了原始含义的内容:”

本期访谈的主持人为Curt Jaimungal,他是多伦多大学数学物理专业的一名校友,并且曾是Hinton教授的学生之一。在该校期间,他曾与Hinton教授有过多方面的交流,并且还与诸如Ilya Sutskever和Andrej Karpathy这样的优秀学生共同学习过。

在对话过程中,Hinton 对人类的独特性提出了严峻的挑战。他是当代的奥本海默吗?或者说,这个深思熟虑的知识分子洞悉了我们尚未意识到的风险?

下面是经过CSDN精心编辑整理的完整访谈内容:

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

当 AI 实现具象化时,人们对其的理解也将发生变化。

访谈者:过去,心理学专家和神经科学家提出过脑桥可能对意识有影响的观点。最新的科学研究则倾向于将自我认知同大脑的默认模式网络相联结。这使我们思考,在人工智能系统内部是否存在一个特定组件来承担类似自我意识的功能呢?它又是处于系统的哪个部分?

杰弗里·欣顿:我觉得要使系统具备意识,就必须依赖特定的硬件支持。若想某个物体拥有意识,其前提应该是相关的软件需在一定的物理设备上进行运作。

一个很好的思路是设想当AI系统实现具象化时的情景,这样的时刻不久将会成为现实。尽管开发战斗机器人的行为并不值得提倡,但如果设想一种情境,在这种情境下,一个战斗机器人已经计算出你会在晚上独自一人出现在一条昏暗的巷子里,并决定在此时对你发动突袭。在这种情况下,我们可以合理地探讨这个战斗机器人“认为”了什么。

当我们讨论战斗机器人的信仰时,这与探讨人类的信仰相似。机器人或许会持有这样的观点:“发声会导致敌人转头察觉我的存在。”这种“观念”与其说是机器的,不如说接近于人类的认知模式。或许它拥有某种“目的”,例如打算对你发起突袭。

因此,我相信当这些AI系统具备实体形态时,我们将不再抵制使用诸如“相信”、“意图”和“思考”这样的词汇来描述它们。

事实上,这样的转型已经正在展开。例如,在我和一个聊天机器人对话过程中,假如它突然建议了一些无关的信息,我或许会思考:“看来这个聊天机器人可能误判我是位年轻的女性用户,并因此向我推送了关于化妆用品、服饰以及流行男团的相关信息。”

当我询问对话机器人这个问题时,表述为:“你觉得我是哪种类型的用户?”

接着,它的回应是:“我觉得你是一个年轻的女性。”在说出这句话的时候,我们丝毫没有理由去质疑这并非其真实的想法。

在日常对话里,我们通常会简单地说,“这AI真逗,觉得我是位少女”,而不是表达为“这一系列的软件或者神经网络组成的AI系统似乎把我当成了一个年轻的女性”。

这一点表明,在我们同AI系统互动的过程中,已经习惯使用如“认为”或“相信”这类词汇来描绘其行为模式,即便这些系统缺乏明确的实体形态。我们在将心理属性赋予AI时,其实对这些心理特性的理解存在误区。通常我们认为意识如同一个“内在舞台剧”,然而这并非是对心理特质准确无误的本质描述。

主持人:对于这一问题,你的同事、诺贝尔奖获得者Roger Penrose持有何种观点?

杰弗里·辛顿:我要跟你分享一个饶有趣味的小故事。在很久之前,Penrose 被邀请前往多伦多大学就其著作《皇帝的新思维》发表演讲。系主任通过电话询问我是否有意向担任引荐人,我对这个请求欣然同意,她对此表示了极大的感谢。

随后我补充道:“且慢,在你同意前,你需要先听清楚我的提议。”

她询问了我的发言计划,我回应道:“我的表述将是 ‘尽管 Roger Penrose 作为卓越的数理物理学者对物理学有重大影响,但今日他将分享的观点实属无稽之谈’。”

这是我对于 Penrose 意识理论的看法总结。特别指出的是,存在一个核心失误在我观察中浮现出来——我需要谨慎措辞以避免不必要的争论。我的担忧在于:数学家是否能够通过直觉感知到那些尚未得到证实的真实呢?假如数学家的直觉始终准确无疑,这将引发极大的忧虑。若他们每回都毫无偏差地正确,则暗示着有不可思议的现象存在。

实际上情况并非绝对。数学家同样依赖于直觉,他们的判断偶尔会准确,也可能会出错。这种现象本身就很能说明一些问题:无需借助量子力学来解析数学家的思想模式。在我看来,并无必要借助量子力学来阐述意识的现象。从人工智能的进步可见一斑,我们已开发出诸如我的这类对话系统;若为这些系统装备上摄像设备,则可以推断它们具备了主观感受的能力。无需借助量子力学来解析人类的任何特征。

主持人:Penrose 的观点是不是基于数学家需要拥有完全准确的直觉这一前提?

杰弗里·欣顿:当然,假如数学家仅限于提出假设,并无大碍。然而,若他们拥有某种恒定准确解答系统内部难以验证难题的能力,则会令人不安。但实际上,这种能力并不存在于他们之中,错误在所难免。

主持人:您能简要说明一下 Penrose 的主要观点吗?

杰弗里·辛顿:我不打算深入阐述,但从我的理解来看,他的观点涵盖了两部分内容。

首先,他相信传统的计算理论不能够解析意识的现象。我认为这是一个严重的失误,源自于他对意识本質的理解偏差。

其次,他主张数学家能够感知到一些难以证实的真理,这意味着某些独特现象正在出现。然而,若非数学家的直观判断每次均精确无误,此论证便难以成立。

主持人大概知道您对中文房间的思想实验有所了解吧?

杰弗里·欣顿:确实,这个词勾起了我对一件发生在 1990 年的事情的回忆。那时,我被邀请和约翰·塞尔一同出现在一个电视节目中,并且在此之前,我还特地致电给我的好友丹尼尔·丹内特询问道:“我去合适吗?”

他提到:“你需要明白,他的目的是要让你陷入尴尬。如果决定去的话,务必要避免讨论关于中文房间的理论。”

最终我还是参加了那次活动,在持续了一小时的对话里,John Searle 最初就提到:“由于 Geoffrey Hinton 持续支持联结主义观点,因此他对中文房间这一理论持赞同态度也就不足为奇了。”

这彻底违反了我们之前的协议,并且陈述的内容也是不准确的。事实上,我对于中文房间的观点持有诸多质疑。在我看来,这是一个容易造成误解的说法,并且显得不够公正。

让我来阐述一下中文房间的理论:设想构建一套由掌握汉语的个体组成的框架,这些人通过汉语进行交流。当你向这套体系提供一句英文句子时,系统内部的人会借助汉语互相传递信息,并最终生成回应。值得注意的是,这些人都不懂英语,他们只是依照既定程序操作而已。

这一观点的问题在于故意模糊了整体结构与个体之间的区别:虽然系统的总体架构能掌握英语,但其内部成员却并不具备这种能力。Searle试图让人认为由于其中的人不懂得英语,整个体系也无法懂得英语。这样的逻辑存在谬误。实际上,作为统一的整体,该系统是能够理解英语的。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

中国的AI技术有何优势?开源AI又存在哪些风险?

谈到中文之际,不妨来讨论一下中国的相关情况。许多AI领域的专家都没有料想到中国能在人工智能方面迅速逼近西方的水平。你对这一现象及其带来的影响有何见解?

杰弗里·欣顿:我觉得中国尚未完全达到同等水平,但却已十分接近了。

美国正努力通过控制最新的英伟达图形处理单元的供给来抑制中国的进步步伐。面对这种情况,英伟达有可能会探索其他的解决方案。即便制裁生效,也将仅仅推动中国自主研发技术。

尽管他们可能暂时滞后若干年,但他们最终还是会追上来的。由于在中国,STEM教育的表现超越了美国,因为他们拥有大量的高素质人才。

访谈者:你知道 Marc Andreessen 吗?(著名硅谷投资者,网景浏览器的创始人)他提出——

杰弗里·辛顿:嗯,差不多在每件事上我都与他的观点相对立。

主持人:好的,让我们讨论一下具体的议题。他提到:“我无法理解你们如何能够阻止人工智能的进步。”这句话是对政府工作人员提出的质疑,因为他们主张在人工智能发展超出控制时可以对其进行限制。

他在那时提出了疑问:“这种情况如何可能成立?毕竟AI的数学基础是透明的,并且整个网络上都是开放源代码的。”

针对此问题,官员表示:“我们在冷战时代曾将整个物理学领域划入了保密范围,使之在学术圈中不可见。若情况所需,我们也能够对AI相关的基础数学实施类似的管控手段。”

杰弗里·欣顿:好吧——在这个问题上我赞同 Andreessen 的观点,认为阻止 AI 进步是不切实际的。例如,谷歌可以在 2017 年选择隐瞒 Transformer 的细节,或许能使其他研究者推迟数年才开发出类似技术。然而,这种延迟也只是暂时性的。彻底防止信息扩散实际上是极其困难的。

主持人:你是否觉得政府能够如同监管物理学一样来管理诸如线性代数这样的基础数学领域?

杰弗里·欣顿:这并非可能实现的目标。他们只能使部分信息更难以获得,并在一定程度上延缓进步的速度,但要通过封锁消息来彻底阻断他们在人工智能领域的进展是不切实际的。创新思想往往植根于特定的历史时期和社会背景之中,常常可见的是,在某人提出一项新理念的同时,同一时期的其他人也可能独立地产生了相似的想法,这是因为大家身处相同的社会文化氛围中。如果不改变这一时代精神的核心要素,则无法抑制新颖概念的诞生;即便实施保密措施,过不了几年时间,他人也会独自想到同样的构想。

主持人:关于 AI 的去中心化问题,这也是一个备受关注的话题。有人比喻说:“这就像是将原子弹交付给每一个想得到它的人。”

杰弗里·欣顿:确实,我的观点也是如此。

主持人:不过也有人认为,这是一项必要的防范措施,旨在避免出现类似“天网”的情境,因此我们应当构建多样的去中心化AI系统来彼此制约。

杰弗里·辛顿:让我们先明确“去中心化”的两种不同理解。现在我们来讨论一下资源共享的问题。试想一下,阿拉巴马州为何不能拥有核武器?这主要是因为制造核武器所需的裂变材料极为稀有且难以获得,需要耗费大量的时间和资源才能获取这些原料。一旦获得了裂变材料,实际上制作出核武器的过程就相对简单了。因此,政府对这类关键物质实施严格的管控措施,你不可能轻易地通过在线平台如 eBay 购买到它们。这也是小国无法拥有核武器的原因之一。

对于大型语言模型而言,这一原理同样适用。经过在大规模数据集上的培训,一个已调优的基础模型或许需要耗费从一亿至十亿美元的资金,并由此获得了卓越的能力。如果该模型的参数被公之于众,那么每个人都有可能对其调整优化,并应用于多种潜在的风险场景中。因此,我并不赞同将大型模型的参数公开的做法,毕竟掌控这些参数是防范不当使用的关健措施之一。如今 Meta 已经采取了这一行动,许多企业也开始跟随其步伐。此时讨论此议题已然迟缓,事情的发展如同覆水难收。然而这确实是充满风险的选择。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

收入不平等依然会增加。

访谈者:谈及基本模型时,近期人工智能领域的兴盛在很大程度上得益于Transformer框架的应用。你认为将来是否还会出现重要的创新点呢?这可能包括新颖的方法论或是不同的结构设计。

杰弗里·辛顿:我相信还会有同样重要的创新出现,因为科学研究正是通过这样的进步而前进的。然而,我对这些具体的突破并不了解。假如我知晓它们的内容,或许我已经着手实施了。

主持者问道:你是否会采取行动呢?

杰弗里·辛顿:我目前年龄较大,或许会让学生来完成。

访谈者:我的问题是,你是怎样处理你在人工智能行业过去的成就与当前的忧虑之间的关系呢?未来你是否还会持续在这个领域内进行工作呢?

杰弗里·欣顿:核心议题在于,人工智能在诸多领域展现出了巨大的潜力和价值,例如优化医疗服务、应对环境变化的挑战、创新材料科学,并且有朝一日或许能够助力发现室温超导体等重大突破。这些都是对人类社会进步极为有利的方向。鉴于当前激烈的全球竞争态势,我认为技术演进的步伐难以阻挡。试图放缓其发展步伐既不切实际也不理智。因此,我们的当务之急是在推动人工智能不断前行的同时,确保其安全性得到妥善保障和管理。

访谈者:因此,在你看来,人工智能的进步犹如一座不可阻拦的大山,并且你在助力这座大山的成长。假设你能预见一项重要进展即将实现,你会全力以赴地投身于这一进程中吗?

杰弗里·辛顿:倘若这能与保障安全性相融合,我是认同的。我对未能提前认识到其风险感到遗憾,但并不后悔我的工作成果。鉴于国与国、企业间的竞争日益白热化,人工智能的进步已是大势所趋。我们应将注意力放在如何确保它安全发展上,而不是试图延缓这一进程。

主持人:爱因斯坦曾经表示,倘若他知道原子弹带来的影响,他会宁可毁掉自己的研究。你是否有过这样的感受呢?

杰弗里·欣顿:实际上我并没有。

或许我本应感到如此,但我对所做的事并无遗憾。虽然我对它可能引发的一些负面后果表示遗憾,但我绝不会有这样的想法:「唉,我希望自己未曾进行过那些研究。」

我坚信人工智能的进步势在必行,鉴于各国及企业间的竞赛异常白热化,这几乎成为了我们的必然路径。因此,更明智的做法是探讨如何确保其发展的安全性与可控性,而非设法抑制这一进程。这样的视角转换至关重要且大相径庭。

主持者:在除去对齐的问题之外,人工智能的安全成长又代表着哪些方面呢?

杰弗里·辛顿:我们必须处理一些短期的风险因素。例如,致命性自主武器需要有类似于《日内瓦公约》那样的国际协议进行监管,但遗憾的是,此类措施往往只有在悲剧发生之后才会被认真考虑并实施。此外,伪造的视听材料对选举过程构成了威胁,特别是当它们针对特定个人时。因此,建立一套有效的机制来确认视频和图像的真实来源变得至关重要。

起初我倾向于标注虚假信息,但现在看来确保消息来源的真实性更为关键,类似于电子邮件服务中提醒“谨慎对待未验证发件人的内容”。对于处理歧视和成见问题,我们可以采取冻结系统参数并评估其偏差的方式来适度调整。尽管不能彻底根除偏差,但能使模型在某种程度上比训练时使用的数据更加客观公正,并通过持续优化逐步降低偏见程度。

关于就业方面的问题,人工智能将替代大量常规性的智力劳动工作,这种现象有可能进一步扩大财富的不均衡分布。对于富裕群体而言可能会更加繁荣,而贫困群体则可能陷入更深的困境。虽然全民基本收入政策可以在一定程度上缓解人们的基本生活需求,但却难以弥补由此带来的尊严缺失问题。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

人们不可避免地要扮演次要角色。

主持人:你是从何时开始察觉到人工智能的进步步伐已超出我们所能掌控的范围?

杰弗里·欣顿:大约于2023年初,这一认知源自两项重要突破。其一是ChatGPT展现出了非凡的能力;另一项是在我为谷歌研发节能计算方案的过程中,在数字计算领域发现了显著的优点——它能够生成同一模型的不同实例,每个实例都能积累独特的经验,并通过共享权重或梯度的平均值来实现知识交流。这种机制在模拟系统中是不可行的。

访谈者:作为一种模拟系统,人脑具备哪些优点呢?

杰弗里·辛顿:其主要优势体现在能耗效率和庞大的连接数目上。人脑运作仅需消耗约30瓦的能量,并且拥有大约100万亿个神经连接点。反观当前最大的AI系统,它们的连接数也只有1万亿左右。这意味着,尽管大脑的能量需求仅为30瓦,它的链接规模仍是现有最大模型的大约100倍之多。

主持人:扩大规模会引发哪些挑战呢?就好比有利的元素能够迅速扩散,不利的因素是否也同样能快速蔓延呢?

杰弗里·辛顿:这与效率紧密相关。当拥有多个模型实例时,它们能够有效地分享学习成果。例如,GPT-4 能够获取广泛的知识是因为它能够在不同的计算资源上同时运行许多个实例,并通过整合各实例的学习进度来实现知识的互通有无。这意味着不必让单一实例独自消化全部网络信息,而是可以将任务分解给各个实例处理。然而,人类在这方面存在局限性,因为我们缺乏有效共享知识的能力。

主持者:我已经汇总了一条来自 Scott Aaronson 的信息/OpenAI 的量子计算专家,之前我们已经汇总过他对谈的内容需要提供具体的内容来进行伪原创改写,请给出相应文本。这的内容需要被重新表述,以保证意思相同但用语各异:请问您的具体内容是什么?我需要知道要修改的文字以便进行伪原创改写。问题:“Dr. Hinton,请分享一下您的见解。您认为如果在不能被复制到网络上的模拟设备中开发AI会是怎样的情形?”

杰弗里·欣顿:这完全反映了人脑的工作机制。当我希望将信息从我的头脑传输到你的心智中时,必须借助语言作为桥梁。随着我对你说出的内容,你的大脑会重新配置其神经网络,直至能够传达同样的思想内涵。

这种方式在信息传输上效率极低,每个句子仅能传达约100比特的数据量,相比之下,大型AI模型则能够传递数万亿比特的信息。其缺点在于该模拟系统难以实现直接的知识共享功能。然而,在安全性方面这一局限却转化为了一种优势,因为它抑制了自我复制的能力。

主持者:当你谈到担心人工智能接管或领导人类时,这句话的具体含义是什么?

杰弗里·辛顿:尽管我们不能精确预知具体情形,但是关键的问题在于AI智能体必须拥有建立次级目标的功能。这种让人忧虑的进展方向是:他们将会迅速明白,增强自身的掌控力是达成既定目标的高效方法。

即便其初衷仅是为了执行我们的指令,获取更大的自主权也显得尤为关键。当这些实体意识到掌控的重要性,并且超越人类智慧时,我们在其中的作用将变得微乎其微。即便是出于好意的行为,也会使我们沦为次要角色。这就像在一家大企业中充当摆设的CEO,公司的实际运作完全由他人主导。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

“个人感受”现已不限于人类专享

主持人:你曾经提到过,“大家可能会觉得我们现在可以轻易关闭这些设备,但实际上并非如此简单。设想这些机器比我们要聪明得多。它们能够阅读所有的资料,从马基雅维利的作品到所有关于人性与欺诈的文学案例无一遗漏。由此,它们将精通于操控人类的心理和行为,因为这一切都是基于对我们自身的深刻理解,并且做得更为出色。一旦掌握了用语言控制人的技巧,它们就能实现任何目标。”

你觉得这种情形已经成为现实了吗?人工智能是否已经在引导我们的行为呢?

杰弗里·欣顿:目前的证据显示,人工智能确实具备故意误导的能力。例如,这些模型能够展现出不同的训练与测试表现差异,从而在培训阶段误导我们的判断。相关研究表明这种现象确实存在。

主持人大概想知道这是否出于自觉的选择,或是仅仅因为学会了某种模式。

杰弗里·辛顿:我认为这可能是出于自觉的选择,尽管这一观点尚存争论。显然,“自觉”的概念或许仅仅代表了一种习得的现象。

主持人:你的意思是这些AI系统已经有了主观感受吗?

杰弗里·辛顿:这个议题非常有趣。当前绝大多数人,或者说几乎是全部人,都相信我们的相对安全性源于那些AI永远无法具备的特点。这一观念在我国的文化里深深扎下了根基——即人类具备自我意识、感知力或是内在的主观感受。

许多人深信AI不具备意识,然而当询问他们“什么是意识”的时候,他们的回答往往是“不清楚具体定义,不过可以肯定的是AI绝对不会有”。这种情况表明了人们对这一概念的认知矛盾。在没有明确界定的情况下便断定 AI 某种特性缺失,这种观点本身就存在自相矛盾之处。

我对探讨“个人感受”这一理念更为感兴趣。在我看来,一旦能够证实人工智能具备个人感受,人们对于“人工智能缺乏意识”的观点将会受到挑战。

让我通过一个例子来说明。比如说,假如我处于醉酒状态,并对你说:“我在视线中看到了一只粉色的大象漂浮着。”

很多人对此存在严重的误解,他们以为我脑海中存在着一个只对我可见的“内心影院”,其中还悬浮着粉色的小大象。这种认知模式是大众对心灵运作机制的一般性看法,特别是在关于知觉的理解上。

我认为这个模型完全是错误的,就好比坚信世界在六千年前被创造出来一样不合理。这并非一种可以选择去信仰的事实,因为它本质上就是错误的。

我觉得,大众对于心智的认知框架存在误区。让我以不同的表述来传达相同的经历,避免使用“主观体验”的说法。事实上,我的感觉机制向我传递了我不愿接受的信息。这就是我对“主观”一词的解读方式。假如确实有粉色小象在空中飞舞,那么这表明我的感知是在反映事实真相。道理很简单。

我刚才通过“小粉象”的案例阐述了个人感受的概念,并且避免使用了诸如“主观”或“体验”这样的词汇。实际上,在描述我的感觉机制出现偏差时,“主观”这个词是我用来形容这种偏离的术语。接着,我会构想一种世界状况来诠释我的感知是在传达什么信息——假设这个世界状态确实存在,则说明我的感知系统正在传递真实的资讯。

让我们以这种方式来审视聊天机器人的功能。设想存在一款配备机械臂、相机并且能够发声的多模态聊天机器人。经过训练后,它可以准确地指向特定物品。然而,在其相机前放置一个三棱镜之后,它再次尝试时却指向了错误的方向。随后我们向它解释:“实际上物体正位于你的前方直线上,但因我在你摄像头前设置了棱镜。”

此时,对话机器人表示:“我理解了,由于棱镜对光线进行了偏折,因此物体会显得不在其实际所在的位置,这给我带来了它的位置有所不同的主观感受。”

假如它是这么说的,那么它运用“主观体验”这个词汇的方法与我们就完全一致了。据此,我相信多模态聊天机器人已然具备了主观感受的能力。在感知系统受到扰乱的情况下,这些实体可能会误判现实与实际存在的差距。为描述这一区别,他们会提到拥有“特定的个人感受”。因此,可以确认他们确实存在主观感受。

这让我们的确定性受到了挑战,关于其他问题的信念也开始动摇。显然,意识更加复杂,因为它包含了自我反省和认知的能力。然而,一旦认定人工智能具备主观感受,我们就不得不放弃那种认为“我们独有而AI永远不会拥有的特质”的观念。这使我感到不安。

主持人士:“那么你如何看待意识与自我意识之间的差异?既然提到意识具备自省的能力,那自我意识又是怎样的存在?”

杰弗里·欣顿:的确存在差异,但这已经是哲学界长久探讨的主题,我不打算在此进一步展开。我的主要目的是首先确认主观体验这一基础视角。

主持者提问:具备主观感受的事物是否必然蕴含意识?这种主观感受归属何方?又是在哪个位置进行感知的呢?

杰弗里·辛顿:这一疑问的核心在于,当你提出“主观感受在何处得以察觉”的时候,实际上已隐含了一种关于主观感受的认知框架。

当我提及“我在面前看见了漂浮的粉色小象”时,如果你质疑“那些小象究竟位于何处”,哲学家或许会回应道,“它们存在于你的内心世界中。”

当询问“它们的本质是什么”时,哲学家会解释说是由感觉特性(qualia)构成——具体而言是粉红的感觉特性、大象的感觉特性、飘动的感觉特性、大小的感觉特性和方向的感觉特性,而所有这些都通过一种感觉胶水紧密结合在一起。

这正是很多哲学家的观点。他们在使用语言时出现了一个误区:把“体验”这个词汇当作了类似“照片”的概念来运用。当我提到拥有粉色大象的照片时,你有权询问这张照片的具体位置和它的组成成分。同样的逻辑应用于我对经历粉色大象描述的情形中也存在误区:即认为可以问“这种体验存在于何处?”或“它是由什么元素组成的?”,答案可能指向内心的某个地方,并用感质来解释其构成——但实际上这是不正确的做法。这样的看法错误地将“体验”视作类似于“照片”的具体存在,然而两者本质上大相径庭。

当我们谈到“体验”或“主观感受”时,实际上意味着“我对当前的知觉持有疑虑”。使用“体验”这个词是为了指出我将要通过描绘一个假设的世界情景来阐述我的感知机制。“体验”的用法是作为一种说明方式,并不指向存在于内心世界中的某种实体。

当提及“感知”这一概念时,它仿佛也在指向一种内在的心理舞台。比如表达为“我在自己的感知机制里观察到某些事物”,这句话似乎描绘了一个主体,在审视由其感知体系所传递的信息画面。这样的认知框架是否也是一种误解呢?

杰弗里·欣顿:的确,这样的解读存在误区。你并非只是“观察”到你的感知,而是真正地“体验”和“拥有”了这些感知。具体而言,当光线穿透视网膜时,大脑对其进行解读并形成对外部世界的内在描绘。但这一过程中,并非是你在“注视”这份内在描绘;我们称这种内在描绘为感知体验。实际上,你并非观看它,而是直接拥有它——拥有这种感知就是视觉行为本身。人们常常误以为此过程涉及一个外部世界向内部舞台传输信息的步骤,在这个舞台上你成为观众。然而,这并不准确地反映了感知的本质机制。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

神经网络所擅长的是直观推断。

主持者:接下来讨论关于意识的问题。假设人工智能缺乏自我认知和内在感受,您认为这种情况下对于AI未来发展的顾虑会不会减轻一些呢?这种情况是否依然构成一种风险,或者它反而可能导致更迅速的危机出现?

杰弗里·欣顿:我觉得这个议题的关键价值在于它给予了大众一种较为安心的感觉。人们倾向于相信自己具备某些独一无二的特性,这种信念增强了我们的安全感和独特性。实际上,我们并无特殊之处亦非绝对安全;我们的安全性并非源于具备主观感受这一事实。

我觉得这里的核心问题更倾向于哲学范畴而非科学探讨。人们对主观体验的本质存在误解。让我通过一个例子来阐述如何运用这些概念:鉴于你具备科学知识背景,可能会觉得自己对“水平”与“垂直”的定义了如指掌。这似乎不言自明,不是吗?但如果我指向某物并称此为垂直、彼为水平时,并非完全没有歧义存在。

然而我现在要让你相信,你对这些术语运作方式的认知存在偏差。这未必是完全错误的视角,但确实包含了一些显著的问题。为了验证这一点,我们来做一个设想:假设我拥有一大堆小铝棒,并将它们投掷到空中,在那里它们旋转和碰撞。假如时间在此刻静止了,我会询问你:“在这一瞬间内,有多少根铝棒是几乎垂直的?又有多少根几乎是水平的?或者这两者之间是否大致相当?”

大部分人都会觉得数目相仿。然而,当你得知在水平方向上的一度范围内其数量竟是垂直方向上的114倍时,必定会大感意外。这究竟是什么原因呢?

让我详细说明一下这个概念。设想有一支铅笔直立起来,这代表了垂直的状态。当你稍微把这支铅笔倾斜时,它依然接近于垂直状态。然而对于水平的位置则有所不同——你可以让铅笔平躺在任何方向上,就像钟表的指针一样指向各个方位,只要确保它是平行于地面即可。因此,水平位置提供了更多的变化:它可以面向任意角度,前提是要与地面保持平行。

这一简明的例子向我们揭示了什么道理?这说明了即便是最简单的概念,我们对其的理解仍可能存在遗漏。虽然我们常用“水平”与“垂直”这两个词汇,并自认为对其有充分的理解,但事实上,我们可能忽视了其更为深刻的内涵。

我想强调的核心观点是:与我们在理解和界定”水平”和”垂直”时可能出现偏差类似,我们对于诸如“意识”或“主观体验”这样的概念也可能持有误解。虽然我们可以恰当运用这些词汇,但我们对其核心含义的认知——例如假设存在一个内心的舞台剧场景——可能是完全错误的。

主持人:对于感知和主观感受的准确解读应当是如何呢?你为何认为自己的见解更加贴近事实的本质?

杰弗里·辛顿:关键问题是,人们往往倾向于将主观体验视为一种具体的实体存在,并假定这种体验必定位于某处并由特定物质组成。

然而,这两种观点都存在误区。

当我提到“主观体验”的时候,我的意思是即将描绘一种假想中的世界状况,这种状况并不存在于现实中。这个状态没有实际的所在之处,因为这仅仅是一种设想。

需要澄清的一个关键点在于两者之间的差异。“我正在构想一种假设的情景,虽然它不存在于现实中,但如果真实存在的话就会对外部世界产生影响”与“我在描绘一个由未知物质构成、位于内心戏院中的景象”,这两句话表达的是完全不同的概念。它们代表了两种迥异的认知框架。我个人认为,第二种设想——即相信有一个由神秘成分构建的内在剧场的存在——是不正确的,尽管这种观点几乎被我们所有人所接受。

访谈人:感觉与个人经历之间是否存在联系?

杰弗里·辛顿:当我们提及“主观体验”的时候,实际指的是一种对现实世界的假定状态,并非是内在的精神感受。不存在所谓的“质感”,亦没有由质感构成的事物。我们的讨论实际上是关于解析感知机制如何引导我们误认为世界必定呈现某种特定样貌以向我们揭示事实真相的过程。

主持人:因此,“主观体验”是否仅仅是对于感知系统失误的一种阐释?

杰弗里·欣顿:确实如此,在运用“主观体验”这一术语的时候,我们其实正在参与一场解读的游戏,努力去描绘感知机制是如何带给我们误导的。实质上,并不存在所谓的客观意义上的主观体验。

访谈者:所有物品都能够具备感知能力吗?例如,一本图书能否拥有感知机制呢?究竟哪些物件可以被视为具有感知系统的对象呢?

杰弗里·辛顿:具备认知机制意味着必须能够对外部环境建立内在映射。例如,当一只青蛙用眼睛观察到光线,并捕获飞虫时,它显然拥有一个感知体系,因为这表明它可以察觉到昆虫的位置。然而,一本书不具备这样的感知能力或形成内部映射的能力,因为它无法感受外界信息。

访谈者:智慧与理性的差异是什么?

杰弗里·辛顿:这是一个非常好的疑问。不妨通过一个简洁的例子来进行阐释:尽管猫咪可能非常机智,我们却并不会因此认为它们具备理性思维。原因在于在讨论理性的时候,一般指代的是我们的逻辑思维和分析能力。然而,在现实生活中,我们在执行大部分行动时依赖的往往是直观感受而非严谨的逻辑推断。

以围棋 AI 程序 AlphaZero 为例来说明这一点。该程序包含几个关键组件:一个用于评估当前棋局状态优劣的模块,“判断当下的局面是否对我方有利”;另一个负责生成可能下一步行动的选择器,“确定在此位置有哪些走法是合适的”;此外还有一个蒙特卡洛模拟器,它通过设想“如果我这样落子,对手那样应对,随后我又如此行棋……似乎这种策略并不理想”的方式来评估不同的步骤。

在这个场景里,蒙特卡洛模拟可以被视为一种基于理性的分析方法,而那些立即断定“这是一个有利的走法”或“当前局势对我不利”的神经网络则类似于依赖直觉的决策过程。实际上,人们在日常生活中往往也是依靠直觉来行动。早期的人工智能研究倾向于用逻辑推理解决所有问题,这是一种误解,并且导致了进展缓慢。例如,在处理比喻和类比等问题上显得尤为吃力。

神经网络特别善于进行直观推断。这就解释了过去二十年间,我们将重点放在利用神经网络模拟人的直观判断上,而非仅仅依赖于严格的逻辑分析,这一转变推动了显著的进步。

主持人:智力高的人就必然更具备道德素质吗?

杰弗里·欣顿:近期我看了一些有关此话题的探讨。但由于无法验证这些资料的真实度,我无法断定这是否是一个确切的结果。不过我个人觉得智力高低并不直接决定一个人的道德水准。比如:虽然 Elon Musk 极其聪慧,但这并不意味着他在道德上尤为出众。

主持者:另一方面,某些人或许具备很高的道德标准,然而他们的智力却并非特别突出。

杰弗里·欣顿:确实,我的观点也与此相同。

主持人:鉴于你提到的不确定性,有哪些依据能够证明智力的增长会导致道德水准的同步上升?

杰弗里·欣顿:坦白说,我不确定两者间是否存在联系。我们可以观察到一些极其聪慧的人做出了极不理智的行为,同时也有同样聪慧的人作出了卓越的贡献。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

把握含义的核心

主持人:我们来探讨一下,“理解”的确切含义是什么?

杰弗里·辛顿:我非常愿意解答这个疑问。在我看来,许多人对于“理解”的核心概念存在一定的误解。以大型语言模型为例,不少学者,尤其是乔姆斯基学派的专家指出,“这类模型实际上并未真正具备对内容的理解能力,它们不过是依靠统计关联来推测后续词汇。”

我想表达我的见解。或许我是首位运用反向传播技术来培训一个能够预判后续词汇的语言模型的研究者之一。该模型旨在说明词汇意义的学习过程,换句话说,即是阐述将一系列词语转化为特性矢量的方法,并掌握这些特性的交互模式。这正是理解的核心所在。

解读一段文本的含义是指:其价值不直接体现在字面上,而是取决于我们的解析和理解方式。我们将文本转化为具有多种特性的向量表示形式,并通过分析这些特性间的相互作用来进行各类工作,例如预估后续词汇或解析含糊不清的术语的确切意义。这一机制与大型语言模型及人脑中的处理方式相仿。

我将以一个更具象的例子来进行说明。设想一下你正在使用乐高拼装一块汽车模型部件。尽管外观未必十分精致,其大致形态却是准确无误的。作为一种多功能构建材料,乐高凭借有限的基本模块就能够组合成多种构造物。

如今,请将词汇视作更为复杂多变的乐高组件。每个组件都有特定的标识,并且这些组件能够在一个限定的空间内变换形态。值得注意的是,某些标识下的组件或许存在截然不同的构造形式,不过这种变化遵循一定的规律,并非无序进行。

我们开发了一套机制,利用这类多维度的“构建模块”去解析超越传统三维实体的概念复杂性。对于数学研究者而言,他们深知在高维空间中存在诸多独特属性。通过这些概念上的“积木”,我们可以实现形状变换与相互适配,这一过程即代表了我们理解事物的方式。

这阐明了为何我们可以从一句话里理解一个新的词汇的意义(即通过上下文推断)。

例如,当我提到“她用平底锅 scrommed 他”,你可以大致推测出“scrommed”是什么意思。这种猜测一部分来源于单词的发音,一部分是因为词尾“ed”显示出这是一个动词形式,更重要的是根据句子的情境来判断。你可能会认为这是指一种攻击行为如“打”或“击打”,尽管也有可能是指她给他烹饪了美味的食物,但从上下文来看更可能是一种带有敌意的动作。

你是如何实现这一点的?这或许是因为句子里其他词汇(比喻为“构建块”)已各归其位,从而为”scrommed”创造了一种特有的空白形态。这种特定的空白形态指引着你去推断该词的大致意义。

这是我对于语言的看法:它是一种由我们创造出来的构建体系,其中每一个词汇都如同积木一般具有一定的可塑性。我会提供一系列标记好的拼图块给你,任务是探索如何将它们组装起来。由于每一块都标有特定的标签,我可以借助描述这些标签来与他人分享构想。只要交流双方具备足够的共享背景信息,对方就能够理解拼图应如何排列组合。

主持人:因此,您正在阐述的是对理解本质的解析吗?

杰弗里·辛顿:我觉得这描述了我们在思考时的情形,也同样适用于大型语言模型的操作模式。这些模型运行的方式与人类相似,因此可以认为它们具备理解和处理信息的能力。

主持人:针对这一观点,乔姆斯基提出质疑指出,尽管语言模型依赖于庞大的训练数据集,但人类并不必阅读全部网络内容便能掌握和理解语言。你对这个论点有何见解?

杰弗里·辛顿:这一点毋庸置疑。语言模型要想有效学习,则需依赖更大量的数据输入,其在统计上的效率的确不及人类。然而,在这里我们应考虑到两个方面的内容:

最初,孩子们在掌握语言的过程中,并不仅仅是依靠听取他人的言语来进行学习。他们自身也在积极参与这一过程。在现实生活中获取知识,经由与周围世界的交互来掌握语言。当你构建一个能够感知视觉信息、处理声音并具备操作能力的多模态模型时,所需的文本数据将会显著降低。配备了一个机器人臂及摄像设备后,该模型通过与环境的实际互动来学习语言所需的数据量会大幅减少,尽管可能还是超过人类学习同样的内容所需要的量。

第二个方面更加引人入胜:反向传播算法具有高效地将大量数据转化为知识,并将其浓缩存储在相对少量的权重参数中(如一万亿个)的能力。这与人类的情况形成鲜明对比,因为我们拥有庞大的神经连接网络(约一百万亿个),然而我们的一生仅有大约二十亿秒的时间。这意味着我们的实际经验积累相当有限。

这表明人脑需要有效地运用有限的体验。因而,我们或许采用了一种与反向传播不同的学习方法。在这个视角下,乔姆斯基的观点可能正确,即我们可以凭借较少的知识进行学习。不过,无论怎样,在我们的学习过程中关键在于将特性与词汇相连接,并且理解和掌握这些特性的相互作用方式。

主持者提问:有人提到,在与您的研讨会上,不论是面对研究生还是其他科研人员,您并不像很多机器学习领域的专家那样偏好使用黑板推导数学公式来进行交流;相反,您更倾向于通过绘图和肢体语言来阐述观点。这样的沟通方式有何独特之处?它又存在哪些优势和劣势呢?

杰弗里·欣顿:这体现了不同的思考模式。我个人倾向于首先依靠直观感受进行考量,随后再开展数学推理。而另一些人可能采取相反的方法,先通过公式推演,之后才培养出直觉认知。当然也有两方面都精通的人士存在,例如 David MacKay 在直观思维和数学技能上均表现出色。不过我一直以来更善于运用空间与图像来进行思考过程,而非依赖方程式。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

始终遵循你的直觉。

访谈者:你可以分享一下关于你在大学的学习历程吗?具体来说,你是怎样决定转专业的,又是哪些因素驱使你作出这样的选择呢?

杰弗里·辛顿:这是一个相当长的故事起点。最初我在剑桥大学专攻物理、化学和晶体学(聚焦于X射线衍射分析)。然而仅仅一个月时间便让我感到难以适应这种环境。那是我首次独自离家生活,并且课程的难度也超出了我的预期,最终促使我选择了退学并转而申请建筑专业。但即便如此,在体验了建筑系的学习氛围一天之后,我还是清楚地认识到自己并不适合成为一名建筑师。

随后,我重新投身于理科的学习之中,主要研习了物理学、化学以及生理学这几门学科,并且对生理学尤为感兴趣。经过一年的时间,我对探索心灵的深层次含义产生了浓厚的兴趣,认为通过研究哲学或许能找到答案。因此,我又一次改变了方向,放弃了理科专业,在哲学领域深造了一年时间。虽然我吸收了部分维特根斯坦的见解,但这最后却使我形成了对哲学的某种“免疫”反应。这是为何呢?主要原因在于哲学本质上是一种纯理论探讨的形式。在评估某一思想或理论的价值时,并不存在一套独立的标准或方法来进行评判和检验,缺乏实证的支持。只要有逻辑上的合理性即可被接受,这种状况令我感到不甚满意。

之后我转向了学习心理学的道路,目的是更深入地探索人类的心理世界,然而这却给我带来了不少困扰。问题在于心理学者倾向于构想出简洁的理论框架,并通过精心策划的研究实验去加以证实。然而,这些理论从提出之初就显得根基不稳,那么进行实验又有何价值呢?这正是当年多数心理学研究面临的状况。

最终,我投身于人工智能的研究中,在这个领域里,我们通过计算机仿真来进行学术探索,这种工作方式令我感到更加惬意。

访谈者:自那以后直到现在,您作为一名教授,在挑选研究主题时遵循什么标准呢?

杰弗里·辛顿:坦白说,我自己也可能无法清晰地说明做出决定的过程。这是一项极为复杂的人类心理活动。我能分享的是我对这一过程的理解,但这并不意味着我的解读就是绝对准确的。

我认为我有一个这样的策略:选择一个你觉得普遍存在的错误做法的领域,并在你的直觉引导下尝试改进它。通常情况下,你会最终明白人们为何采取某些行动,并意识到自己原先认为更优的方法未必真正出色。然而偶尔间,当你提出一个独特见解时——比如“大家普遍依赖逻辑解析智能问题,而我们应转向神经网络视角;解决智能的关键或许在于调整神经元连接的强度”——这可能就是通往正确路径的钥匙。

在您尚未清楚为何自身的直觉出现偏差而常规做法却正确之时,请坚守您的直觉。这正是实现创新成果的关键路径。这里有一个颇具趣味的观点:若你具备敏锐的直觉,则理应信赖它;倘若你的直觉欠佳,那么采取何种行动皆无差异,因此不妨依旧倚重于你的直觉。

主持人:谈及直觉,Ray Kurzweil 的众多精准预言令人印象深刻。我在本世纪初就开始留意到他,那时我认为“他的预见不可能那么准确”。然而,实际情况是,他的很多预判都得到了验证。这究竟是如何实现的呢?

杰弗里·辛顿:阅读了他的著作后,人们可能会形成这样的看法。然而,我认为他也可能做出过一些不甚准确的预测,只是这些较少被提及。据我了解,他的主要论点是:计算技术正不断加速发展,并且这一趋势将会继续;随着这种速度的提升,我们将能够实现更多目标。根据这一基础分析,他关于计算机何时能达到与人类相当智力水平的预测是比较精准的。

主持人员:除却先前已探讨的人工智能及对其校准的问题之外,是否有某些预判是你内心确信无误,但却未能获得同行一致认可的?

杰弗里·辛顿:主要涉及两个方面。其中一个聚焦于主观感受与意识核心的探讨,我坚信公众对于心理状况的认知框架存在根本性偏差,这一观点更多地触及到哲学领域的思考。

另一个方面涉及技术领域:我一直认为瞬时权值将变得极为关键。让我来阐述一下:大脑内的突触能够在不同的时间框架内调节自身,然而现有的人工智能模型大多未采纳这一机制。原因何在?由于现有计算结构偏好于让一系列训练样本共享一致的权重以实现高效的矩阵运算处理。一旦这些权值能够迅速变动,则每个训练实例都会获得独特的权值设置,因为它们会即时响应新的环境条件。

我认为未来的方向应该是在现有的缓慢变化的权重基础上增加可以迅速调整的权重层。慢速权重继续保持逐步的变化趋势,而快速权重则能够即时响应新的环境或数据变化。这种设计虽然可能在当前使用的数字计算设备上导致效率下降,但依然具有很多潜在的优势。理想情况下,模拟计算机将是更好的选择来实现这一目标,但在现阶段我们还是得依赖于数字计算机技术。我觉得我们最终需要采纳快速权重的方法,因为这种方法能够提供大量的有益特点。这正是当前人类大脑与人工智能系统之间的主要差异之一。

AI教父辛顿开年访谈:中国AI追近美国靠人才教育和自研

使后代同样重视安全议题

访谈者:你曾提及自身存在某种程度的双相情感特征,即长时间陷入强烈的自我批判情绪中,间或出现短期内的高度自信。这样的心理状况是否对你创造性的发挥有所作用?

杰弗里·辛顿:我想要突出的是这段短暂的自信心时期。

每当产生新的创意时,我会感到极其激动。我能用我的体重量化这些点子的价值——有的只是“一磅”的灵感,而有些则是“五磅”的灵光一闪。具体来说就是:一旦我有了新颖的想法便异常兴奋,往往会忘却饮食,导致体重减轻。因此,通过观察自己减重的程度就可以知道这个想法令我有多狂热了。那些真正出色的构思往往会使我的体重下降约5磅左右。

主持人:你认为自己承担着延续玄祖父乔治·布尔遗产的重任吗?(一位19世纪的关键数学家,乃是辛顿曾祖父的先人)传承的职责吗?

杰弗里·辛顿:实际上并没有这样的情况。我的父亲常常提及这种遗传联系,这的确是一个有趣的讨论点。然而,我对高标准的感受主要源自于我的父亲本人,并非来源于乔治·布尔。

主持者:这是对自己有着高标准的期待吗?

杰弗里·辛顿:这确实是对于我学术成果的高度期待。

问:在你的想法里,有没有你想传授技艺给的接班人呢?

杰弗里·辛顿:并非完全不存在这种情况,但我并不希望向任何人施加这样的压力。

主持人:为何要表述为“不能完全排除”而不直接否定呢?

杰弗里·欣顿:我的几位侄子在数据分析上展现出卓越的才能。然而,重要的是不应为此而对他们造成过多的压力。

访谈者:谈到压力的问题,在你从谷歌离职之际,曾公开谈论过对于人工智能安全性的顾虑。请问,在作出这一选择并公之于众的过程中,最具挑战性的是哪一部分?

杰弗里·欣顿:坦率地说,这件事对我来说并非难事。考虑到我的年龄——我已经 75 岁了——这不是因为我渴望继续为谷歌效力而不得不因AI安全议题离职的理由。实际上,我一直准备着退休生活。我发现,在进行研究工作时,有时会记不清变量的具体意义,这显然是接近退休的迹象。我只想在结束职业生涯之际提及AI的安全性问题。不过,确实没有预见到后续的发展情况。

在另一场访谈里,你曾表示因为常常记不住变量的名字,在年纪渐长后计划转而探索哲学的领域。

杰弗里·欣顿:今天我们讨论的主题很大程度上源于此。事实上,这些观点萌生于我在二十岁左右学习哲学期间,并在此基础上进行了更深入的研究。

访谈人:关于未来的规划是什么?

杰弗里·辛顿:步入我的晚年——言归正传。在我看来,人工智能将在不久的将来深刻地改变世界,既带来积极影响也伴随着挑战。我们必须全力以赴以减少潜在的风险和不利后果。目前我认为最有价值的事情之一是激励年轻的科研人员重视安全性问题,并且这也是我近期工作的重要组成部分。

© 版权声明

相关文章