全球主要AI公司安全措施不及格

AI资讯2个月前发布 ainav
41 0

12月3日,路透社报道称,”未来生命研究所”发布最新一期AI安全指数报告,对Anthropic、OpenAI、xAI和Meta等主要人工智能公司的安全措施提出严厉批评,指出这些行业领军者在安全管控方面远未达到全球公认的标准。

该研究显示,在独立专家的评估中,各企业普遍呈现出一种重技术突破轻风险管控的发展倾向。尽管这些公司在追求通用人工智能(AGI)的道路上投入了巨大资源,但尚未建立起能够有效监管和控制高阶AI系统的可靠方案。

全球主要AI公司安全措施不及格

这份报告的出炉恰逢AI技术引发的社会关注达到新高。近期频发的与AI聊天机器人相关的自杀和自残事件,使得社会各界对具备强大推理能力和潜在超越人类智能的系统愈发感到担忧。

Future of Life Institute主席、麻省理工学院教授Max Tegmark指出,尽管公众对AI可能带来的安全风险(如协助黑客攻击和引发人类心理失衡)议论纷纷,但美国的AI企业实际上受到的监管力度还不如一家普通餐厅。这些公司仍在积极游说,试图避免被强制实施严格的安全规范。

令人担忧的是,尽管安全风险日益凸显,主要科技企业仍在持续加大投入,仅今年一年,行业在机器学习技术研发上的总投资就超过了数千亿美元。这种重商业扩张轻安全管理的趋势,正在将全球带入一个高度不确定的未来。

据了解,”未来生命研究所”是一家成立于2014年的非营利机构,其宗旨是关注智能机器可能给人类带来的潜在威胁。该组织在创立初期就获得了特斯拉CEO埃隆·马斯克的重要支持。

值得注意的是,就在今年10月,包括 Geoffrey Hinton 和 Yoshua Bengio 在内的多位AI界权威科学家曾联名呼吁:应立即暂停对超级人工智能的研发,直到社会就发展路径达成共识,并找到确保其安全可控的有效方法。

© 版权声明

相关文章