在国际数学奥林匹克竞赛(IMO)的舞台上,人工智能模型首次以一种意想不到的方式成为焦点——它学会了”诚实”。
尽管在被誉为最难数学题的第6题上颗粒无收,但OpenAI的金牌模型却展现了一种特殊的”高智商”:当面对无法解答的问题时,它会明确表示自己的知识边界。
正如OpenAI研究员Noam Brown在最新访谈中所指出的:
当模型缺乏有效证据时,它会选择谨慎地表达不确定性。这种机制能够显著减少错误答案的出现。
在AI首次摘得IMO金牌之后,OpenAI的核心团队成员Alex Wei、Sheryl Hsu和Noam Brown参与了一场由红杉资本组织的深度对话。他们分享了模型如何攻克这些高难度数学题背后的关键突破。
有网友总结了一个简洁版本:
与过去那些看似完美实则错误的”幻觉式”回答不同,新一代模型开始学会了”承认自己不会”。
这一转变标志着AI正在从不切实际的虚构回答向更可靠、更具”自我认知意识”的新阶段迈进。
在红杉资本的对话中,三位团队成员还分享了许多关于如何冲刺IMO的细节。
当AI学会说”不知道”
数学家和计算机科学家们一致认为,获得IMO金牌的人工智能模型具有重大价值。然而,他们也注意到一个普遍的问题:当模型遇到知识盲区时,它往往会产生看似可信但实则错误的回答。
这种”不懂装懂”的现象给用户带来了极大困扰,研究人员不得不投入大量时间去验证和修正这些”幻觉式陷阱”。
在本次IMO竞赛中,第6题成为所有模型的试金石。这道题目要求在一个2025×2025的网格中放置矩形图块,满足每行每列恰好有一个空位且每个方格只能被一个图块覆盖。
具体来说,Matilda希望在网格上放置一些大小不一但边对齐的矩形图块。每一行和每一列都必须恰好有一个未被任何瓷砖覆盖的单位正方形。请计算Matilda需要放置的最小瓷砖数量。
尽管投入了海量计算资源,模型最终只能给出一句”我无法回答”。对此,Alex Wei表示:
能够看到模型避免产生错误的幻想确实令人鼓舞。
Noam Brown也对这种转变给予了高度评价,”如果它不知道答案,它就会诚实地说’不知道’。”
金牌背后的三人组
作为OpenAI的核心成员,这个突破性的成就离不开三位顶尖研究员的努力。
**Noam Brown**:这位在卡内基梅隆大学获得博士学位的研究员,曾先后效力于DeepMind和Meta。2023年6月加入OpenAI后,他在人工智能领域持续贡献着自己的智慧。
**Sheryl Hsu**:这位来自斯坦福大学的计算机科学家于2025年3月加入OpenAI。她在斯坦福AI实验室的IRIS实验室有着丰富的研究经验。
参考链接:
-
[1]https://x.com/chatgpt21/status/1950606890758476264
-
[2]https://www.youtube.com/watch?v=EEIPtofVe2Q
本文来自微信公众号:量子位(ID:QbitAI),作者:时令