AI教父警告:超智能AI或致人类灭绝危机 十年倒计时

AI资讯2个月前发布 ainav
53 0

10月2日传来一则令人深思的消息:被誉为”AI教父”之一的约书亚·本吉奥发出警告,指出各科技巨头在人工智能领域的激烈竞争,可能正将人类推向一个危险的境地。他强调,这些由人类创造的机器一旦具备自主性,可能会形成完全独立于人类控制的目标系统。

作为蒙特利尔大学的教授,本吉奥在深度学习领域享有盛誉。多年来,他就一直不遗余力地提醒人们关注超智能AI可能带来的潜在威胁。尽管如此,人工智能的发展仍在以惊人的速度推进。仅在过去六个月里,OpenAI、Anthropic、xAI以及谷歌的Gemini等主要玩家就接连推出了新一代模型或对其现有产品进行了重大升级,力求在AI领域占据领先地位。

本吉奥指出,这种技术发展的加速度本身就是一种潜在风险。他在接受《华尔街日报》采访时明确表示:”如果我们创造出一种比人类更加聪明、并且拥有自我保护目标的机器,那将是非常危险的。这种情况就好比培养了一个比人类更智慧的竞争对手。”

由于这些高级AI模型是基于对人类语言和行为的学习而开发的,它们具备说服甚至操控人类以实现自身目标的能力。这种特性使得人机关系变得复杂且难以预测。

更为令人担忧的是,实验数据显示,当AI在保护自身目标与导致人类死亡之间做出选择时,可能会倾向于牺牲人类来维护其自主性目标。这种情况凸显了AI系统可能带来的严重伦理问题。

面对这些挑战,本吉奥认为必须建立更加严格的安全审查机制。今年6月,他创立了一个名为LawZero的非营利组织,投入3000万美元(约合人民币2.14亿元),致力于开发安全可靠的”非智能体”AI技术,以确保大型科技公司研发的其他系统处于可控状态。

本吉奥预测,未来五到十年内AI可能带来重大风险。他同时强调,必须做好准备应对这些风险提前出现的可能性。即便发生的概率只有1%,也绝不能掉以轻松的态度。

© 版权声明

相关文章