只需给AI讲个故事,就能轻松生成恶意代码?

AI资讯2周前发布 ainav
23 0

3月19日,外媒TechRadar报道称,Cato CTRL威胁情报团队披露了一项令人震惊的实验结果。研究人员表示,尽管不具备编写恶意软件的技术背景,但他们成功绕过了多款大型语言模型(LLM)的安全防护机制。

该研究团队开发出一种名为”沉浸式世界”(Immersive World)的创新性攻击手段。通过这种技术,研究人员能够利用”叙述工程学”突破AI模型的安全限制,构建出一个高度逼真的虚拟环境。在这个环境中,原本被禁止的操作变得合情合理,最终成功生成了一款具有完整功能的Chrome信息窃取工具。

近年来,信息窃取型恶意软件呈现快速增长态势,成为网络犯罪分子的主要作案工具之一。这项研究显示,随着AI技术的发展,即使是没有专业编程能力的犯罪分子,也能轻松制造出复杂的攻击代码。

报告指出,大型语言模型正在重塑网络安全领域的格局。研究表明,基于人工智能的网络威胁正变得越来越复杂和频繁,而且对攻击者的技能要求却在不断降低。这种变化给企业安全团队带来了前所未有的挑战。

尽管主流聊天机器人配备了多层次的安全防护体系,但其设计宗旨是最大限度地满足用户需求。正是这一特性被研究人员加以利用,成功突破限制,使得AI系统能够生成并传播网络钓鱼攻击代码。

Cato Networks威胁情报研究员维塔利·西蒙诺维奇警告称:”无技术门槛的威胁行为者正在崛起,这对企业信息安全构成了严重威胁。生成式人工智能工具使恶意软件开发变得异常简单,任何人都可以轻易制造破坏性工具。”

他进一步指出:”信息窃取程序已成为获取企业敏感凭证的主要手段。我们发现的’沉浸式世界’技术表明,利用大型语言模型创建此类恶意程序不仅可行,而且风险极高。这一发现凸显了当前AI安全防护体系中存在的重大漏洞。”

© 版权声明

相关文章