中科院团队证实:大语言模型可类人类理解事物

AI资讯3天前发布 ainav
2 0

6月11日,中国科学院自动化研究所神经计算与脑机交互(NeuBCI)课题组发布最新研究成果:其联合团队通过行为实验与神经影像分析相结合的方法,首次验证了多模态大语言模型能够自发形成与人类高度相似的物体概念表征系统。这一突破性发现为人工智能领域的认知科学研究开辟了新路径,并为构建类人智能系统提供了重要的理论支撑。该研究论文《Human-like object concept representations emerge naturally in multimodal large language models》已发表在国际顶级期刊《自然·机器智能》。

中科院团队证实:大语言模型可类人类理解事物

人类对自然界中物体的认知能力,长期以来被认为是人类智能的核心特征。这种认知不仅包括对物体物理特性的识别(如尺寸、颜色和形状),还包括对其功能、情感价值以及文化意义的理解。这些多维度的概念表征构成了人类认知的基础。

然而,传统的人工智能研究更多关注于物体识别的准确率,而较少探讨模型是否真正理解了物体的本质含义。论文通讯作者何晖光研究员指出:”当前AI虽然能够区分猫狗图片,但这种’识别’与人类对猫狗概念本质的理解仍有显著差异。”基于认知神经科学的经典理论,研究团队创新性地构建了一套融合计算建模、行为实验与脑科学研究的范式。通过采用经典的”三选一异类识别任务”(triplet odd-one-out),要求大模型和人类从1854种日常概念中随机选取的物体概念三元组中,找出最不相似的选项。基于对470万次行为判断数据的分析,团队首次构建了AI大模型的概念网络。

中科院团队证实:大语言模型可类人类理解事物

实验范式示意图。a,物体概念集及带有语言描述的图像示例。b-d,分别针对 LLM、MLLM 和人类的行为实验范式和概念嵌入空间。

研究团队从大模型的海量行为数据中提取了66个”心智维度”,并赋予这些维度明确的语义标签。研究发现,这些维度不仅高度可解释,并且与大脑特定功能区(如面孔识别区FFA、场景处理区PPA、躯体感知区EBA)的神经活动模式显示出显著相关性。

该研究表明,多模态大语言模型在概念表征方面展现出与人类相似的能力。这一发现不仅深化了我们对人工智能学习机制的理解,也为开发更接近人类认知水平的人工智能系统提供了重要参考。此外,这项研究为探索人脑信息处理机制提供了新的视角,并可能为神经科学和人工智能领域的交叉研究开辟新的方向。

© 版权声明

相关文章