谷歌警告:攻击者正将AI直接植入实时网络攻击
好的,我现在需要帮用户总结这篇文章的内容,控制在100字以内,而且不需要特定的开头。首先,我得通读整篇文章,抓住主要信息。 文章主要讲的是谷歌威胁情报小组发布的一份报告,指出网络攻击者已经开始将AI整合到实际攻击中。特别是他们滥用谷歌的Gemini模型,比如恶意软件直接调用Gemini生成代码。此外,报告还提到模型提取攻击和AI在攻击全生命周期中的应用,比如侦察、漏洞研究等。最后,还有专家质疑谷歌的动机和责任问题。 接下来,我需要把这些要点浓缩成一句话。要涵盖威胁行为者使用AI进行攻击、Gemini模型被滥用、AI在攻击中的应用以及专家质疑这几个方面。 可能的结构是:威胁行为者将AI整合到攻击中,利用Gemini生成代码和进行模型提取攻击,并且AI渗透到整个攻击过程。同时提到专家对谷歌动机和责任的质疑。 现在检查字数是否在100字以内,并确保表达清晰准确。 </think> 谷歌报告指出威胁行为者已将AI直接整合到网络攻击中,包括滥用Gemini模型生成恶意代码及进行模型提取攻击。AI技术已渗透至网络攻击全生命周期,从侦察到漏洞利用均发挥作用。同时业界专家质疑谷歌报告动机及其对AI滥用的责任归属问题。 2026-2-12 16:0:48 Author: www.freebuf.com(查看原文) 阅读量:0 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

image

谷歌威胁情报小组今日发布的最新报告警示,威胁行为者已不再局限于对人工智能的简单试验,而是开始将AI直接整合到实际攻击工作流程中。该报告部分聚焦于对谷歌自家Gemini模型的滥用与针对性攻击,凸显出生成式AI系统正日益成为恶意工具的测试、探测对象,甚至在某些案例中被直接纳入攻击体系。

Gemini模型遭恶意代码直接调用

研究人员发现部分恶意软件家族在执行过程中会直接向Gemini发起API调用。值得注意的是,这些变种会动态请求模型生成源代码来执行特定任务,而非将所有恶意功能硬编码在程序内部。例如被标识为HONESTCUE的恶意软件家族通过提示词获取C#代码,并将其作为攻击链环节执行。这种技术使攻击者能将逻辑转移到静态恶意二进制文件之外,可能使依赖特征码或预定义行为指标的传统检测方法失效。

模型提取攻击持续涌现

报告还记录了正在进行中的模型提取攻击(亦称蒸馏攻击)。威胁行为者通过向模型发送大量结构化查询,试图推断其行为模式、响应规律及内部逻辑。这种攻击的本质在于通过系统分析输出结果,攻击者可在不承担从头开发成本的情况下,近似复现专有模型能力并训练替代系统。谷歌表示已识别并阻断多起针对Gemini模型知识的高频提示词提取活动。

AI渗透网络攻击全生命周期

其他发现包括:国家背景组织和金融动机团体正在将AI工具整合进网络作战的既定阶段,涵盖侦察、漏洞研究、脚本开发和钓鱼内容生成。生成式AI模型被证实能协助制作高可信度诱饵、优化恶意代码片段,以及加速针对特定技术目标的研究。报告同时指出,敌方正在探索具备Agentic能力的AI系统——这类系统能以最少人工干预执行多步骤任务,预示未来恶意软件可能集成更自主的决策模块,但目前尚未发现Agentic AI被广泛部署的证据。谷歌评估当前绝大多数案例仍属于对人类操作者的能力增强而非替代。

业界专家质疑报告动机

ImmuniWeb SA首席执行官Ilia Kolochenko博士通过邮件向SiliconANGLE表示:"这似乎是谷歌在投资者对生成式AI兴趣消退、失望情绪蔓延之际,精心策划的公关宣传。"他提出两点反驳:首先,即便APT组织在攻击中使用生成式AI,也不意味着该技术已能独立创建复杂恶意软件或完成完整攻击链;其次,谷歌在明知国家级团体和网络恐怖分子滥用其AI技术的情况下,可能需为相关攻击造成的损失承担法律责任。Kolochenko强调:"构建防护栏和实施客户尽职调查成本并不高昂,本可预防报告中提到的滥用情况。核心问题在于责任归属——谷歌恐怕难以给出令人信服的答案。"

参考来源:

Google warns attackers are wiring AI directly into live cyberattacks

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/470707.html
如有侵权请联系:admin#unsafe.sh