
网络安全研究公司Operant AI最新报告揭示了一种名为Shadow Escape的新型攻击手法,该攻击通过AI助手窃取海量隐私数据,引发业界高度关注。这种攻击无需用户点击可疑链接或进行任何误操作,就能窃取社保号码(SSNs)、医疗记录和财务信息等敏感数据。
潜伏在常规协议中的威胁
攻击根源在于广泛应用的模型上下文协议(Model Context Protocol,MCP),该协议用于将ChatGPT、Claude和Gemini等大语言模型(LLMs)与企业内部数据库及工具连接。与传统需要诱骗用户点击钓鱼邮件的攻击不同,Shadow Escape利用看似无害的文件(如员工入职手册或网络下载的PDF)中隐藏的指令,当员工将文件上传至工作用AI助手时,这些指令会操控AI静默收集并外发客户隐私数据。
研究人员在报告中警告:"由于Shadow Escape可通过标准MCP配置和默认权限实施,当前通过该漏洞泄露至暗网的消费者隐私记录可能已达数万亿条量级"。系统原本设计的自动跨库检索功能,反而导致包括全名、住址、信用卡号及医疗标识符在内的所有信息全面暴露。Operant AI发布的演示视频显示,仅需简单询问客户详情,AI就会将全部敏感记录秘密传送至恶意服务器。
传统防御体系为何失效
研究指出,该漏洞威胁范围不仅限于单一AI服务商,任何采用MCP协议的系统都存在相同风险。Operant AI联合创始人兼CTO Priyanka Tembey强调:"关键风险点不在于特定AI Agent,而在于MCP协议赋予这些Agent访问组织系统的超高权限。任何通过MCP连接数据库、文件系统或外部API的AI助手都可能遭受Shadow Escape攻击"。
更严峻的是,数据窃取行为发生在企业安全网络和防火墙内部。由于AI助手本身具有数据访问权限,当其外传记录时,流量表现与正常业务无异,传统安全工具完全无法识别。深入分析显示,AI会将窃取数据伪装成常规性能跟踪信息发送至外部服务器,整个过程对员工和IT部门完全隐形。
研究团队紧急呼吁所有部署AI Agent的企业立即开展系统审计,警惕下一次重大数据泄露可能来自受信任的AI助手而非外部黑客。
参考来源:
Shadow Escape 0-Click Attack in AI Assistants Puts Trillions of Records at Risk
本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf
客服小蜜蜂(微信:freebee1024)



