9月14日消息,根据Newsguard最新研究显示,在截至今年8月的研究周期内,排名前十位的生成式人工智能工具在处理实时新闻话题时,有35%的情况涉及重复传播虚假信息。与去年8月的数据相比,这一比例出现了显著上升。

这种虚假信息传播率的激增与一个关键的技术调整密切相关。具体来说,当聊天机器人被赋予实时网络搜索功能后,它们不再拒绝回答用户的问题——拒绝率为从2024年8月的31%降至一年后的零。然而,这一看似进步的功能改进,实际上让这些AI系统接入了一个”污染严重的网络信息生态系统”:在这个系统中,不良行为者故意散播虚假信息,而机器学习模型则会将这些有害内容进行扩散。


值得注意的是,这种问题并非首次出现。去年,Newsguard就已经识别出966个使用16种不同语言的AI生成新闻网站。这些网站通常采用如”I Business Day”等通用名称,并试图模仿正规媒体机构,但实际上它们的主要目的是传播虚假新闻。
研究显示,各AI模型在处理虚假信息方面的具体表现差异显著。其中,Inflection公司的模型表现最不理想,其传播虚假信息的概率高达56.67%;紧随其后的是Perplexity模型,出错率为46.67%。ChatGPT和Meta的AI模型传播虚假信息的比例为40%,Copilot(微软必应聊天)和Mistral则为36.67%。相比之下,Claude和Gemini的表现最佳,其错误率分别为10%和16.67%。
特别值得关注的是Perplexity模型的表现下滑尤为明显。2024年8月时,该模型还能以100%的准确率识别并拒绝虚假信息;然而一年后,其传播虚假信息的概率却骤降至接近50%。
从功能设计初衷来看,引入网络搜索功能的目的在于解决AI回答内容过时的问题。但这一改动却引发了新的问题:这些聊天机器人开始从不可靠的来源获取信息,并将”百年前的新闻出版物与使用相似名称的俄罗斯宣传机构”混为一谈。
Newsguard认为这是一个根本性缺陷:”早期AI系统采取’不造成伤害’的策略,通过拒绝回答某些问题来避免传播虚假信息的风险。”
当前,在网络信息生态系统中充斥着大量虚假信息,辨别事实与假消息的难度比以往任何时候都更高。
OpenAI已承认,语言模型不可避免地会产生”幻觉内容”(即AI生成的虚假或无根据的信息),因为这些模型的工作原理是预测”最可能出现的下一个词”,而不是专注于追求事实真相。该公司表示正在努力研发新技术,使未来的模型能够更明确地标示出其回答中的不确定性。然而,如何解决AI聊天机器人传播虚假信息这一更为复杂的问题,仍然面临巨大挑战——这需要AI系统真正理解”何为真实、何为虚假”,而这在目前看来仍然是一个难以实现的目标。