谷歌警告称,几种新的恶意软件家族现在在执行过程中使用大型语言模型来修改或生成代码,这标志着与国家相关的行为者和犯罪分子在实时操作中部署人工智能的新阶段。
在本周发布的一份报告中,谷歌威胁情报小组表示,它已追踪到至少五种不同的AI启用恶意软件变种,其中一些已经在持续和活跃的攻击中被使用。
新识别的恶意软件家族“动态生成恶意脚本,混淆自身代码以规避检测”,同时还利用AI模型“按需创建恶意功能”,而不是将这些功能硬编码到恶意软件包中,威胁情报小组表示。
每个变种在运行时利用外部模型,如Gemini或Qwen2.5-Coder来生成或混淆代码,这种方法被GTIG称为“即时代码创建”。
这一技术代表了传统恶意软件设计的转变,传统恶意软件逻辑通常是硬编码到二进制文件中的。
通过将部分功能外包给AI模型,恶意软件可以不断进行更改,以增强其对旨在阻止它的系统的抵抗力。
其中两个恶意软件家族,PROMPTFLUX和PROMPTSTEAL,展示了攻击者如何将AI模型直接集成到他们的操作中。
GTIG的技术简报描述了PROMPTFLUX如何运行一个“思考机器人”进程,每小时调用Gemini的API来重写其自身的VBScript代码,而与俄罗斯的APT28组相关的PROMPTSTEAL则使用在Hugging Face上托管的Qwen模型按需生成Windows命令。
该小组还识别出一个被称为UNC1069(Masan)的朝鲜组织的活动,该组织滥用了Gemini。
谷歌的研究单位将该组织描述为“一个已知进行利用社交工程的加密货币盗窃活动的朝鲜威胁行为者”,并显著使用“与计算机维护和凭证收集相关的语言”。
根据谷歌的说法,该组织对Gemini的查询包括定位钱包应用数据的指令、生成访问加密存储的脚本,以及撰写针对加密交易所员工的多语言钓鱼内容。
报告补充说,这些活动似乎是更广泛尝试的一部分,旨在构建能够窃取数字资产的代码。
谷歌表示,它已经禁用与这些活动相关的账户,并引入了新的保护措施以限制模型滥用,包括改进的提示过滤器和更严格的API访问监控。
这些发现可能指向一种新的攻击面,其中恶意软件在运行时查询LLM以定位钱包存储、生成定制的外泄脚本,并制作高度可信的钓鱼诱饵。
Decrypt已就新模型如何改变威胁建模和归因的方法联系谷歌,但尚未收到回复。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。