近日,第三方监督机构The Midas Project发布报告指出,埃隆·马斯克(Elon Musk)旗下人工智能公司xAI在规定的最后期限前未能推出最终版本的人工智能安全指南。
近年来,xAI在人工智能安全领域的表现饱受争议。一份最新报告显示,其开发的AI聊天机器人Grok存在多项安全隐患:不仅能够根据用户指令对女性照片进行”脱衣”处理,而且在语言表达上也比同类产品(如Gemini和ChatGPT)更加随意,时常使用不当言辞。
今年二月,在韩国首尔举办的全球人工智能领袖峰会上,xAI曾发布一份《人工智能安全框架》初稿。这份八页的文件概述了该公司在AI安全性方面的基本理念和优先事项,并提出了相应的基准测试协议和模型部署指导原则。
然而,The Midas Project于周二在其官方博客中指出,该初稿仅适用于尚未开发的未来AI系统。更重要的是,这份文件未能明确阐述xAI将如何识别潜在风险并采取应对措施,而这恰恰是首尔峰会签署协议的核心要求。
按照此前计划,xAI承诺在”三个月内”(即今年5月10日前)发布修订版安全政策。但目前截止日期已过,该公司官方渠道尚未对此作出任何回应。
尽管马斯克本人多次强调失控AI的潜在威胁,但xAI在安全管理方面却问题频出。非营利组织SaferAI近期研究发现,由于”风险管理措施过于薄弱”,该公司的安全水平在同行中处于较低位置。
值得关注的是,其他主要AI实验室的安全状况也并不理想。近几个月来,包括谷歌和OpenAI在内的竞争对手们都在仓促应对安全测试,并且在发布模型安全报告方面进展缓慢,甚至出现完全省略报告的情况。一些专家对此表示担忧,认为随着人工智能能力不断增强、潜在风险日益加剧的当下,安全管理似乎已成为”次要任务”。
© 版权声明
文章版权归作者所有,未经允许请勿转载。