freeBuf
主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

AI可一键生成上万种恶意软件变体,88%能规避检测
2024-12-24 10:26:42
所属地 上海

网络安全研究人员发现,借助大型语言模型(LLMs),可以大规模生成新型恶意的JavaScript代码变体,这些变体将更难被安全防护设备检测。

Palo Alto Networks旗下的Unit 42团队指出:“尽管LLMs难以独立创建恶意软件,但犯罪分子能利用它们重写或混淆现有恶意软件,从而加大检测难度。罪分子可通过提示LLMs执行更自然的转换,使这种恶意软件更难被发现。”

长期来看,通过大量转换,这种方法可能降低恶意软件检测系统的性能,甚至使其误判恶意代码为良性。尽管LLM提供商不断加强安全防护,防止其产生不良输出,但不法分子已开始利用恶意AIGC工具如WormGPT,自动化设计高针对性的网络钓鱼邮件,甚至创造新的恶意软件。

早在2024年10月,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络。

Unit 42表示,他们利用LLM反复重写现有恶意软件样本,目的是规避机器学习(ML)模型的检测,例如Innocent Until Proven Guilty(IUPG)或PhishingJS,从而成功创造了10000种新JavaScript变体,且功能不变。

这种对抗性机器学习技术通过变量重命名、字符串拆分、垃圾代码插入等方法转换恶意软件,每次输入系统时都进行变换。

“最终产生的新恶意JavaScript变体,行为与原脚本相同,但恶意评分大幅降低,”该公司表示,并补充说,其贪婪算法能将自身恶意软件分类模型的判断,从恶意翻转为良性的概率高达88%。

更糟糕的是,这些重写的JavaScript代码在上传至VirusTotal平台时,也成功逃避了其他恶意软件分析设备的检测。LLM相关混淆技术的另一优势在于,其重写效果比obfuscator.io等库更自然,后者因改变源代码的方式而更容易被检测和识别。

Unit 42指出:“借助生成式人工智能,新恶意代码变体的规模可能会大幅增加。然而,我们也可利用相同策略重写恶意代码,以帮助生成训练数据,提高ML模型的鲁棒性。”

这一发现正值北卡罗来纳州立大学一组学者设计出名为TPUXtract的侧信道攻击,该攻击针对Google Edge张量处理单元(TPU)执行模型窃取攻击,准确率高达99.91%,可能被用于知识产权盗窃或后续网络攻击。

研究人员表示:“将展示一种超参数窃取攻击,能提取所有层配置,这是首次全面攻击能提取以前未见过的模型。”

本质上,是这种黑匣子攻击捕获了TPU在执行神经网络推理时发出的电磁信号,并利用这些信号推断模型超参数。但这种方法依赖于攻击者对目标设备的物理访问权限,以及昂贵的探测设备。

参考来源:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html

本文为 独立观点,未经允许不得转载,授权请联系FreeBuf客服小蜜蜂,微信:freebee2022
被以下专辑收录,发现更多精彩内容
+ 收入我的专辑
+ 加入我的收藏
相关推荐
  • 0 文章数
  • 0 关注者