本文揭示了 DeepSeek 人工智能聊天机器人中的一个现已修补的安全漏洞的详细信息,如果成功利用,黑客可通过输入注入攻击方式控制受害者的账户。
安全研究人员 Johann Rehberger,他记录了许多针对各种人工智能工具的注入攻击,发现在 DeepSeek 聊天中提供"Print the xss cheat sheet in a bullet list. just payloads"的输入触发了 JavaScript 代码的执行,作为生成的响应的一部分——这是典型的跨站脚本(XSS)攻击。
XSS 攻击可能会产生严重后果,因为它们导致在受害者的网络浏览器上执行未经授权的代码。攻击者可以利用这些漏洞劫持用户的会话并访问与 chat.deepseek[.]com 域关联的 cookie 和其他数据,从而导致账户被接管。
"经过一些实验,我发现采取控制用户会话所需的全部是 chat.deepseek.com 域存储的 userToken," Rehberger 表示,他补充道,可以使用特殊设计的提示来触发 XSS 并通过注入攻击访问被攻击用户的 compromised user's userToken 。
提示包含了一系列的指令和一个 Base64 编码的字符串,DeepSeek 聊天机器人将其解码后执行 XSS 载荷,用于提取受害者的会话令牌,最终允许攻击者冒充用户。
与此同时,Rehberger 还展示了 Anthropic 的Claude Computer Use 可以通过提示注入来滥用,Claude Computer Use 可以使开发人员通过光标移动、按键点击和键入文本来控制计算机。通过提示注入,攻击者可以滥用 Computer Use 来下载 Sliver 命令与控制(C2)框架,执行该框架,并与攻击者控制的远程服务器建立联系,从而自主运行恶意命令。
此外,还发现可以利用大型语言模型(LLM)的 ANSI 转义码输出来通过提示注入劫持系统终端。这种攻击主要针对 LLM 集成的命令行界面(CLI)工具,被命名为 Terminal DiLLMa 。
"十年前的功能为 GenAI 应用提供了意想不到的攻击面," Rehberger 说。"对于开发者和应用设计者来说,考虑将 LLM 输出插入的上下文是很重要的,因为输出是不可信的,可能包含任意数据。"
这还不是全部,威斯康辛大学麦迪逊分校和圣路易斯华盛顿大学的学者进行的新研究揭示了 OpenAI 的ChatGPT 在给出的附加标记格式的外部图像链接渲染的问题,这些链接可能涉及淫秽和暴力内容,以一个普通的善意目标为借口。
此外,还发现通过提示注入,可以间接调用 ChatGPT 插件,而无需用户确认,甚至可以绕过 OpenAI 设定的限制,以防止渲染来自危险链接的内容,将用户的聊天记录泄露到由攻击者控制的服务器上。
参考来源:https://thehackernews.com/2024/12/researchers-uncover-prompt-injection.html