近年来,网络安全专家一直在呼吁拓展CISO的职责范围,以应对日益复杂的网络威胁。生成式AI的出现,尤其是大型语言模型(LLMs)为网络安全带来了新的挑战。尽管LLMs具有巨大的潜力,但网络犯罪分子并未充分利用这一技术来提升其攻击能力。
首先,LLMs在产生真正具有创意或推理能力的输出方面表现不佳。尽管LLMs可以自动化一些常规任务,如渗透测试或漏洞扫描,但它们在为复杂入侵活动提供创意和危险优势方面作用有限。
其次,LLMs的使用带来了边际收益递减的问题。随着对生成式AI的自动化常规任务的依赖增加,利用该技术产生有效模拟或改进人类技术以进行妥协和利用的机会减少。LLMs的使用还增加了攻击者的不确定性和不可预测性,从而降低了攻击者利用生成式AI进行复杂入侵活动的动机。
LLMs对攻击者和防御者的影响
从攻击者的角度来看,LLMs并未带来预期中的革命性变化。尽管LLMs可以用于增强网络钓鱼计划或恶意软件变种等狭义任务,但目前尚无证据表明,使用高级LLM技术的重大入侵行动取得了对防御者的全新优势。
相反,LLMs可能使攻击者面临更多的不确定性和风险。由于LLMs在基础任务上的应用较多,与目标系统直接交互时的失败可能性更高。这使得攻击者在利用LLMs进行复杂入侵活动时更加谨慎。
从防御者的角度来看,LLMs的应用对防御者具有一定的帮助。常规自动化可以帮助防御者更高效地应对一些常见威胁。然而,防御者也需要注意到LLMs在主动防御或其他需要适应性、创造性输入的任务中可能面临的不可预测性。
CISO不要过度迷信生成式AI
CISO需要摒弃炒作,接受更加现实的观点,了解新技术如何与攻击者与防御者之间的已知关系相互作用。生成式AI不太可能实现进攻性网络安全革命,更可能是成为防御者和攻击者用以改变其实践细节的小幅进化工具。
此外CISO还需要认识到,生成式AI在网络安全领域的应用仍处于初级阶段。尽管LLMs具有巨大的潜力,但它们在现实环境中的应用仍受到诸多限制,因此,CISO应关注LLMs的实际应用情况,而不是过分担忧其潜在威胁。
总之,尽管生成式AI在网络安全领域具有广泛的应用前景,但网络犯罪分子并未充分利用这一技术来扩大其攻击能力。CISO应保持理性看待生成式AI的发展,并采取相应的措施来应对潜在的网络威胁。