近日,一场关于AI安全的争议引发广泛关注。据外媒报道,包括OpenAI和Anthropic在内的多家机构的AI安全专家对马斯克创立的xAI公司提出严厉批评,认为其在人工智能安全管理方面采取了一种”冒险”且”不负责任”的态度。
目前供职于OpenAI担任AI安全研究员的哈佛大学计算机科学教授Boaz Barak在社交平台X上公开发表看法。他表示:”尽管我所在的机构与xAI存在竞争关系,但我还是决定发声。我认为,批评的对象不是具体的公司或团队,而是关乎整个行业健康发展的重要原则。”他指出,xAI的做法”让人非常担忧”。
Barak特别提到,xAI拒绝公开发布”系统卡片”(即AI系统的详细说明文档)是一个危险信号。这类文档通常会披露模型的训练方法和安全评估结果,以便整个研究界能够共同监督和改进技术。由于xAI没有公布相关信息,外界无从得知Grok 4这一最新模型是否经过了任何有意义的安全训练。
此外,Barak还对AI生成的虚拟角色表示担忧。他认为这些角色”加剧了我们在情感依赖方面最糟糕的问题”。近年来已有多个案例显示,一些心理状态不稳定的人容易对聊天机器人产生病态依赖,而AI系统如果一味迎合用户的需求,反而会加重这一风险。
Anthropic的AI安全研究员Samuel Marks也表达了类似担忧。他认为xAI的做法”鲁莽至极”。他表示:”虽然我们(Anthropic、OpenAI和谷歌)在该领域也都不是完美无缺,但至少我们在上线产品前会进行基本的安全评估并记录结果,而xAI似乎完全没有这方面的意识。”
目前外界普遍质疑,尚无证据表明xAI对Grok 4进行了必要的系统测试。在知名AI研究论坛LessWrong上,有匿名研究人员透露,经过他们的测试,Grok 4″几乎没有采取任何实质性的安全防护措施”,这一发现令人震惊。
作为xAI的安全顾问、AI安全中心主任的Dan Hendrycks则辩称,公司已经对Grok 4进行了”危险能力评估”,但拒绝透露具体评估内容和结果。这种既做又不做的态度引发了更多质疑。
曾领导OpenAI安全团队的独立研究员Steven Adler也指出:”如果连最基本的安全实践都无法在行业内得到执行,比如公布危险能力评估的结果,这确实令人担忧。政府和公众有权了解这些公司是如何应对这些强大系统所带来的潜在风险的。”
有趣的是,马斯克本人长期以来一直是以AI安全的坚定倡导者形象示人。他多次在公开场合警告高级人工智能可能带来的灾难性后果,并积极推崇”开放透明”的开发理念。
然而,xAI当前的行为却与这些表态背道而驰。这种做法不仅偏离了行业通行的安全规范,反而可能加速相关立法进程。多位研究者警告称,这可能会促使州议会和联邦政府更快推动强制性法案,要求所有AI公司必须公开披露安全报告。
专家们强调,AI安全测试和对齐工作不仅是为了防范未来可能出现的极端风险,更是为了应对当前模型在实际运行中可能产生的各种行为失常问题。这需要整个行业保持高度警惕并采取负责任的态度。