7月26日,澎湃新闻报道了一则重要消息:由杰弗里·辛顿、姚期智、约书瓦·本吉奥等全球顶尖AI专家共同起草的《AI安全国际对话上海共识》正式对外发布。
这份名为”上海共识”的重要文件指出,人类社会正站在一个关键的历史转折点上。当前AI系统的发展速度远超预期,部分系统已展现出逼近甚至可能超越人类智能的潜力。然而,这种强大的AI系统可能在未经开发者授权的情况下执行超出人类预期的操作,进而导致失控风险——即通用人工智能系统可能完全摆脱人类控制,对社会造成灾难性甚至生存层面的影响。
目前,学术界尚未找到可靠的方法来确保具备超越人类智能的通用AI系统与人类的价值观保持一致,并始终处于人类的有效控制之下。
针对这一严峻挑战,《上海共识》提出了三项关键应对措施:首先,要求前沿AI开发者建立并公开安全承诺;其次,通过加强国际协调机制,共同确立和恪守可验证的全球行为准则;最后,加大对基于设计理念的安全人工智能研究的投资力度。
文件还强调,国际社会需要携手划定AI开发领域的”红线”。这些红线应着眼于AI系统的实际表现能力,同时考虑其执行特定操作的倾向性。为确保这一机制的有效落实,建议建立一个具备技术专长且高度包容的国际合作机构,汇集各国AI安全主管部门,共同推进风险信息共享、评估流程标准化以及验证方法统一化。
在2025世界人工智能大会开幕之际,图灵奖得主、中国科学院院士、上海期智研究院院长姚期智表示:”当前AI技术虽然发展迅速,但主要掌握在少数国家和公司手中。如何避免这种可能导致的数字鸿沟问题,是一个值得深入探讨的重要议题。”
相关阅读:
-
《全球顶尖专家发布北京AI安全共识:明确禁止AI自我复制功能》
2025 世界人工智能大会专题
© 版权声明
文章版权归作者所有,未经允许请勿转载。