1月5日,英国《卫报》报道称,当地时间1月4日,英国先进研究与发明署(Aria Agency)项目主管、AI安全专家戴维·达尔瑞姆普(David Dalrymple)发出警告:前沿人工智能系统的安全隐患正在以超出预期的速度发展,这可能让全球措手不及。
在接受采访时,达尔瑞姆普指出,人工智能能力的突飞猛进值得高度警惕。我们需要特别关注那些能够在现实世界中独立完成各类任务、并且表现优于人类的系统。”为了确保文明、社会和地球的安全,人类必须在关键领域保持主导地位,但在这些领域,我们很快就会被全面超越 “
在达尔瑞姆普看来,政府机构与AI企业之间对即将出现的技术突破存在显著的认知差异。从安全性角度看,防御措施很可能跟不上技术发展的步伐。预计在未来5年左右的时间内,大部分具有经济价值的工作岗位将被机器取代,这些工作将以更低的成本和更高的质量完成。
他强调,各国政府不能假设先进AI系统是天然可靠的。在经济压力之下,用于验证可靠性的科学方法可能无法及时成熟。因此,更现实的选择是尽可能地控制并缓解潜在风险。
达尔瑞姆普将”技术进步跑在安全措施前面”的后果描述为安全体系与经济系统的潜在失稳,并呼吁加强对于先进AI行为的理解和管控。虽然技术进步也可能带来积极成果,但整体风险之高不容忽视,而人类社会对这一转变仍显警觉不足。
据本月英国AI安全研究所发布的评估报告,先进AI模型在各领域的综合能力持续快速提升,部分性能指标大约每8个月就能翻倍。领先模型在处理学徒级任务的成功率从去年的约10%大幅提升至50%,并且能够独立完成耗时超过一小时的专业任务。
研究所还对模型的自我复制能力进行了测试。由于自我复制可能导致系统失控,这被视为核心安全风险之一。测试中,两款前沿AI模型的成功率均超过60%。不过,研究所在报告中也指出,在现实环境中出现极端失控情况的概率仍然较低。
达尔瑞姆普预测,到2026年底,人工智能将具备自动完成全天研发工作的能力,并且能够在数学和计算机科学等关键领域实现自我强化,从而引发新一轮的能力加速。