登录
注册
谷歌威胁情报团队于周二发布报告,确认发现了全球首例黑客利用人工智能技术成功开发并实施零日漏洞攻击的案例。此次行动由多个知名网络犯罪势力联手策划,目标直指一款未具名的流行开源网络系统管理工具。攻击者利用该工具中存在的零日漏洞,成功绕过了其双因素认证机制。这种攻击模式在获取有效用户凭证后,能够直接跳过通常用于保护加密账户和数字钱包安全的关键第二层验证,暴露了当前身份验证体系在新型 AI 攻击面前的脆弱性。
午方 AI 梳理发现,谷歌在报告中表达了高度确信,认为攻击者极大概率利用了人工智能模型来辅助发现并利用这些漏洞。这一判断的依据在于,实施攻击的脚本中包含了大量具有典型人工智能模型训练数据特征的代码片段。虽然报告未明确披露具体实施攻击的国家或组织,但谷歌特别指出,中国和朝鲜表现出利用人工智能发现漏洞的强烈兴趣。
值得注意的是,该漏洞并非源于内存损坏等常见的实现错误,而是一个高层次的语义逻辑缺陷,即开发者在程序中硬编码了某些错误的信任假设。
此类逻辑缺陷的隐蔽性极强,而前沿的大型语言模型在识别高层次逻辑缺陷及硬编码静态异常方面表现优异,这为攻击者提供了技术便利。午方 AI 注意到,谷歌进一步披露,包括 PROMPTFLUX、HONESTCUE 和 CANFAIL 在内的一系列恶意软件家族,已经开始利用大型语言模型来规避安全防护措施。这些恶意软件通过生成诱饵代码或填充代码,有效掩盖了其真实的恶意目的,使得传统安全检测手段难以奏效。
随着攻击者建立起自动化流程,能够批量使用高级 AI 账户、汇集 API 密钥并大规模绕过各类安全防护机制,对大型语言模型的滥用已逐渐呈现出产业化趋势。这些攻击行为实际上是在利用免费试用账户进行非法操作,大幅降低了网络犯罪的成本与门槛。谷歌总结指出,随着越来越多的组织将大型语言模型应用于实际生产环境,人工智能软件生态系统已成为攻击者的主要目标。攻击者正越来越多地针对赋予 AI 系统实际功能的关键组件,如自主决策能力及第三方数据连接接口发起攻击。
尽管攻击手段日益精进,但谷歌也强调,目前攻击者尚未掌握能够突破前沿模型核心安全逻辑的关键技术。这一现状表明,虽然 AI 赋能的攻击正在重塑网络安全格局,但防御体系的核心防线依然稳固。
然而,随着 AI 技术在网络安全攻防两端的应用频率不断攀升,行业必须警惕这种利用自动化和智能化手段进行的规模化攻击,重新审视现有的安全架构与信任模型,以应对未来可能出现的更复杂威胁。