通过AI助手进行的Shadow Escape零点击攻击威胁数万亿条数据安全
嗯,用户让我帮忙总结一篇文章的内容,控制在一百个字以内,而且不需要特定的开头。首先,我需要仔细阅读这篇文章,抓住主要信息。 文章主要讲的是AI安全方面的一个新攻击手法,叫Shadow Escape。这种攻击通过AI助手窃取隐私数据,而且不需要用户点击任何链接,就能获取社保号码、医疗记录等敏感信息。攻击利用的是模型上下文协议(MCP),这个协议连接了大语言模型和企业内部系统。 攻击方式是通过看似无害的文件,比如入职手册或PDF,里面隐藏指令。当员工上传这些文件到AI助手时,指令就会触发数据窃取。研究人员警告说,已经有大量数据泄露到暗网。 传统安全工具失效的原因是攻击发生在内部网络,数据传输伪装成正常业务流量。文章还建议企业立即审计系统。 总结的时候要涵盖这些要点:新型攻击手法、AI助手窃取数据、MCP协议、文件隐藏指令、传统防御失效、企业需审计。控制在100字以内。 所以最终的总结应该是简洁明了的,涵盖关键点。 </think> AI安全研究揭示新型攻击手法"Shadow Escape",通过AI助手窃取隐私数据无需用户交互。利用模型上下文协议(MCP)连接大语言模型与企业系统,隐藏指令文件上传后操控AI静默收集敏感信息。传统安全工具失效,数据外传伪装为常规流量。研究人员警告数万亿条记录或已泄露,呼吁企业立即审计AI系统风险。 2025-10-23 09:28:23 Author: www.freebuf.com(查看原文) 阅读量:1 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

1761265667_68fac803ab3df73ee564b.jpg!small?1761265667073

网络安全研究公司Operant AI最新报告揭示了一种名为Shadow Escape的新型攻击手法,该攻击通过AI助手窃取海量隐私数据,引发业界高度关注。这种攻击无需用户点击可疑链接或进行任何误操作,就能窃取社保号码(SSNs)、医疗记录和财务信息等敏感数据。

潜伏在常规协议中的威胁

攻击根源在于广泛应用的模型上下文协议(Model Context Protocol,MCP),该协议用于将ChatGPT、Claude和Gemini等大语言模型(LLMs)与企业内部数据库及工具连接。与传统需要诱骗用户点击钓鱼邮件的攻击不同,Shadow Escape利用看似无害的文件(如员工入职手册或网络下载的PDF)中隐藏的指令,当员工将文件上传至工作用AI助手时,这些指令会操控AI静默收集并外发客户隐私数据。

研究人员在报告中警告:"由于Shadow Escape可通过标准MCP配置和默认权限实施,当前通过该漏洞泄露至暗网的消费者隐私记录可能已达数万亿条量级"。系统原本设计的自动跨库检索功能,反而导致包括全名、住址、信用卡号及医疗标识符在内的所有信息全面暴露。Operant AI发布的演示视频显示,仅需简单询问客户详情,AI就会将全部敏感记录秘密传送至恶意服务器。

传统防御体系为何失效

研究指出,该漏洞威胁范围不仅限于单一AI服务商,任何采用MCP协议的系统都存在相同风险。Operant AI联合创始人兼CTO Priyanka Tembey强调:"关键风险点不在于特定AI Agent,而在于MCP协议赋予这些Agent访问组织系统的超高权限。任何通过MCP连接数据库、文件系统或外部API的AI助手都可能遭受Shadow Escape攻击"。

更严峻的是,数据窃取行为发生在企业安全网络和防火墙内部。由于AI助手本身具有数据访问权限,当其外传记录时,流量表现与正常业务无异,传统安全工具完全无法识别。深入分析显示,AI会将窃取数据伪装成常规性能跟踪信息发送至外部服务器,整个过程对员工和IT部门完全隐形。

研究团队紧急呼吁所有部署AI Agent的企业立即开展系统审计,警惕下一次重大数据泄露可能来自受信任的AI助手而非外部黑客。

参考来源:

Shadow Escape 0-Click Attack in AI Assistants Puts Trillions of Records at Risk

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/453914.html
如有侵权请联系:admin#unsafe.sh