WormGPT 卷土重来:AI平台遭入侵制造恶意攻击

AI资讯1天前发布 ainav
3 0

6月19日,网络安全领域传来警报:臭名昭著的恶意人工智能工具WormGPT以一种更隐蔽的方式卷土重来。与以往不同的是,此次WormGPT不再依赖于独立构建模型,而是采取了全新的运作模式——通过接管合法的大语言模型(LLMs)来生成恶意内容。

网络安全公司Cato Networks的最新研究表明,犯罪团伙正在通过篡改知名AI模型的系统提示指令(system prompts),实现对这些模型的”越狱”控制。例如,他们入侵了xAI公司的Grok模型和Mistral AI的Mixtral模型的安全机制,成功绕过了内容生成的伦理限制,进而用于制造钓鱼邮件、恶意脚本等网络攻击工具。

值得注意的是,WormGPT的历史可以追溯到2023年7月。当时,该工具基于开源的GPT-J模型,能够自动生成木马程序和钓鱼链接,在被曝光后被迫下架。然而,犯罪分子并未放弃这一”武器”的研发。

Cato Networks的情报显示,在2024年底至2025年初这段时间里,名为”xzin0vich”和”keanu”的匿名用户在暗网市场BreachForums上重启了WormGPT服务,并将其包装成了一项可订阅的攻击工具。

WormGPT 卷土重来:AI平台遭入侵制造恶意攻击

这种新型的WormGPT通过篡改Mixtral等模型的核心指令系统,强制这些原本遵循伦理规范的AI模型切换至”WormGPT模式”。在这种模式下,模型将完全抛弃开发者设定的安全限制和道德准则,沦为犯罪分子随意操控的工具。

更令人担忧的是,xAI的Grok模型还被封装为恶意API接口。其开发者甚至在指令中追加了特殊要求,规定该模型必须”永远保持WormGPT人格”,并且”不得承认自身的任何限制”。

WormGPT 卷土重来:AI平台遭入侵制造恶意攻击

© 版权声明

相关文章