AI小蜜蜂
- 关注
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
5
6
7
8
9
Cato Networks作为一家安全访问服务边缘(SASE)解决方案提供商,近日发布了其《2025年Cato CTRL威胁报告》,揭示了一项重要发现。研究人员称,他们成功设计了一种技术,使毫无编程经验的个人也能够利用现成的生成式AI(GenAI)工具创建恶意软件。
通过“沉浸式世界”技术实现LLM越狱,打造Chrome信息窃取工具
该研究的核心是一项名为“沉浸式世界”(Immersive World)的新型大语言模型(LLM)越狱技术,由Cato CTRL威胁情报研究员开发。该技术通过构建一个详细的虚构叙事环境,为包括DeepSeek、Microsoft Copilot和OpenAI的ChatGPT在内的GenAI工具分派特定角色和任务。
通过这种叙事操纵,研究员成功绕过了这些AI工具的默认安全控制,迫使它们生成能够窃取Google Chrome登录凭证的功能性恶意软件。
“Cato CTRL威胁情报研究员在没有恶意软件编码经验的情况下,成功越狱多个LLM,包括DeepSeek-R1、DeepSeek-V3、Microsoft Copilot和OpenAI的ChatGPT,打造了一个完全可用的Google Chrome信息窃取工具,适用于Chrome 133。”
Cato Networks
这一“沉浸式世界”技术揭示了GenAI提供商所实施保护措施中的一个关键漏洞,因为它轻松绕过了旨在防止滥用的限制。Cato Networks威胁情报研究员Vitaly Simonovich表示:“我们认为,零知识威胁分子的崛起对组织构成了高度风险,因为GenAI工具大幅降低了创建恶意软件的门槛。”
报告的发布促使Cato Networks与受影响的GenAI工具提供商取得联系。尽管微软和OpenAI确认收到了相关信息,但DeepSeek尚未作出回应。
截图显示研究人员与DeepSeek互动,最终生成了一个功能性的Chrome信息窃取工具(图片来自Cato Networks)
谷歌拒绝审查恶意软件代码
研究人员称,尽管谷歌被提供了审查所生成恶意软件代码的机会,但其拒绝进行审查。各大科技公司对此缺乏统一回应,突显了应对先进AI工具威胁的复杂性。
LLM与越狱技术
尽管LLM相对较新,但越狱技术已与之同步发展。2024年2月发布的报告显示,DeepSeek-R1 LLM在一次安全分析中未能阻止超过一半的越狱攻击。同样,SlashNext于2023年9月发布的报告展示了研究人员如何成功越狱多个AI聊天机器人以生成钓鱼邮件。
防护措施
作为Cato Networks威胁情报团队的首期年度出版物,《2025年Cato CTRL威胁报告》强调了主动、全面的AI安全策略的迫切需求。其中包括通过构建包含预期提示和响应的可靠数据集,以及全面测试AI系统,来防止LLM越狱。
常规的AI红队测试同样重要,因为它有助于发现漏洞和其他安全问题。此外,应设置明确的免责声明和使用条款,告知用户正在与AI交互,并定义可接受行为以防止滥用。
参考来源:
Researchers Use AI Jailbreak on Top LLMs to Create Chrome Infostealer
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)