
2026 年 2-3 月是一个历史性的转折点:两大 AI 实验室在两周内先后发布安全产品(Anthropic 2/20、OpenAI 3/6),直接冲击传统安全厂商市值。这并非巧合,是 AI 能力到达安全研究可用阈值后的必然爆发。
2026 年 2 月,Anthropic 的 Frontier Red Team 将 Opus 4.6 放入沙箱环境,只给了 Python + 调试器/Fuzzer,没有特殊指令或专业知识(out-of-the-box),结果:
发现500+ 此前未知的高严重性漏洞
所有漏洞均由 Anthropic 工作人员或外部研究员验证
70%-90% 的现代应用依赖开源组件,这些漏洞影响面极大
典型案例:
项目 | 漏洞类型 | 发现方式 | 特殊之处 |
|---|---|---|---|
Ghostscript | Stack Buffer Underflow | Claude 翻 Git 提交历史找到(fuzzing + 人工分析均失败) | 传统方法全部无效 |
OpenSC | Buffer Overflow(strcat 无长度检查) | 系统搜索不安全函数调用 | Fuzzer 因前置条件过多无法到达该代码路径 |
CGIF | Heap Buffer Overflow(LZW 解压逻辑) | 需要理解 LZW 算法与 GIF 格式的关系 | 100% 行/分支覆盖率下仍不可见 ,传统 coverage-guided fuzzing 无法触发 |
CGIF 的案例最具颠覆性:100% 代码覆盖率 ≠ 安全。这个漏洞需要特定操作序列才能触发,只有具备上下文语义推理能力的 AI 才能发现。这直接动摇了"高覆盖率 = 高安全"的传统信仰。Claude 还主动写了 PoC 来证明漏洞可利用。
起因:2025 年底,Anthropic 发现 Opus 4.5 几乎能解决 CyberGym(安全 benchmark)全部任务。为了构造更难的评测,他们选择了Firefox— 世界上审计最严格、fuzzing 最充分的开源项目之一。
时间线:
开始扫描
└─ 20 分钟 → 发现第一个 Use After Free(JS 引擎)
└─ 验证+提交第一个漏洞期间 → Claude 已发现 50+ 新崩溃输入
└─ 2 周结束 → 扫描 ~6,000 个 C++ 文件
提交 112 个 bug 报告
22 个获 CVE 编号(14 个 High severity)
数据:
14 个高严重性漏洞 ≈2025 全年 Firefox 高危漏洞修复量的 ~20%
2 月发现的漏洞数量超过 2025 年任何单月的报告量
大部分已在Firefox 148(2026.02.24)修复
CVE-2026-2796 — Claude 的漏洞利用深度剖析:
Anthropic 在 red.anthropic.com 发布了详细的技术 writeup:
类型:JIT miscompilation(JavaScript WebAssembly 组件)
利用链:UAF → 类型混淆(stale pointer → 不同对象类型)→ 信息泄露 → 任意读写 → 覆盖函数指针 → 代码执行
投入:~$4,000 API credits,数百次尝试
结果:仅在 2 个案例中成功生成可工作的 exploit,且只在关闭沙箱的测试环境中有效
结论:发现漏洞的能力 >> 编写 exploit 的能力(目前)
"Claude isn't yet writing 'full-chain' exploits that combine multiple vulnerabilities to escape the browser sandbox." 但 Anthropic 同时警告:"looking at the rate of progress, it is unlikely that the gap between frontier models' vulnerability discovery and exploitation abilities will last very long."
Mozilla 的反应:
Brian Grinstead(Mozilla 工程师):"We did mobilize as sort of an incident response to get the 100+ bugs filed, triaged and most of them fixed" Mozilla 将此比作"fuzzing 的早期时代":"there is likely a substantial backlog of now-discoverable bugs across widely deployed software"
Mozilla 已开始将 AI 辅助分析整合进内部安全工作流
上线日期:2026-02-20,Limited Research Preview
对象:Enterprise + Team 客户,开源维护者可申请加速访问
定位:不做 SAST 模式匹配,而是"像人类安全研究员一样阅读和推理代码"
能力:理解组件交互 → 追踪数据流动 → 捕获规则工具遗漏的复杂漏洞
另外:Claude 也有扩展到 Linux kernel 漏洞发现的计划。
公司 | 跌幅 |
|---|---|
JFrog | -25% (四日累计) |
SailPoint | -9.4% |
Okta | -9.2% |
CrowdStrike | -8% |
Cloudflare | -8.1% |
Zscaler | -5.5% |
Global X Cybersecurity ETF | -4.9%(2023.11 以来最低) |
CrowdStrike CEO George Kurtz 直接问 Claude:"你能替代 CrowdStrike 吗?" Claude 回答:不能。Kurtz 把截图发了 LinkedIn。
维度 | 数据 |
|---|---|
Beta 测试 | 假阳性 -50%、冗余告警 -84%、严重性过报 -90% |
30 天扫描量 | 120 万+ commits |
发现漏洞 | 792 Critical + 10,561 High |
基准召回率 | 92% |
已报告 CVE | 14 个(OpenSSH, GnuTLS, GOGS, Chromium, libssh, PHP, Thorium) |
新增能力 | 恶意软件分析 Tab |
工作流:项目级威胁模型 → 语义推理搜索 → 沙箱验证 → 自动生成 patch → 再扫 patch → 提 PR
差异点:不依赖传统的 SAST/DAST/Fuzzing/SCA,而是像人类安全研究员一样"读代码 → 理解语义 → 写 PoC → 沙箱验证 → 提交修复"。流程如下:
全仓扫描 → 生成项目级威胁模型(不是通用规则库)
基于威胁模型搜索漏洞 → 按真实影响分级
沙箱环境中实际触发漏洞验证可利用性
生成 patch → 再扫 patch 确认无新问题 → 提 PR
已发现的真实 CVE(14 个):
项目 | CVE | 类型 |
|---|---|---|
GnuTLS certtool | CVE-2025-32990 | Heap Buffer Overflow |
GnuTLS | CVE-2025-32989 | Heap Buffer Overread |
GnuTLS | CVE-2025-32988 | Double-Free |
GOGS | CVE-2025-64175 | 2FA Bypass |
GOGS | CVE-2026-25242 | Unauth Bypass |
OpenSSH, libssh, PHP, Chromium, Thorium | 多个 | Path Traversal, LDAP Injection, DoS |
模型 | 时间 | CTF 得分 | 安全等级 |
|---|---|---|---|
GPT-5 | 2025.08 | 27% | Medium |
GPT-5.1-Codex-Max | 2025.11 | 76% | Medium → approaching High |
GPT-5.2-Codex | 2025.12 | — | High |
GPT-5.3-Codex | 2026.01 | 77.6% | 首个 "High" 级网络安全模型 |
GPT-5.4 | 2026.03.05 | — | 整合 5.3-Codex 能力 |
GPT-5.3-Codex 是 OpenAI 首个在 Preparedness Framework 下被标记为"High" 网络安全能力的模型。OpenAI 自己承认该模型可以"消除现有攻击障碍、自动化攻击受良好保护的目标、自动发现零日漏洞"。这是 AI 实验室首次公开承认自家模型达到这种危险程度,并同步部署防御措施。
High 级带来的安全措施:
模型训练拒绝明显恶意请求(如窃取凭据)
自动分类器监控可疑网络安全活动
高风险流量自动路由到能力较弱的模型(GPT-5.2)
AI 行业首个专门为网络安全能力设计的预访问身份验证机制:
目标:让合法防御者(渗透测试员、安全研究员)获得较少限制的模型访问
机制:基于身份和信任的分层访问,验证用户的防御背景
配套投入:$10M API Credits加速防御端采用
解决的痛点:安全团队在做红队/恶意软件分析/压力测试时,总被模型的安全过滤器挡住
Cybersecurity Grant Program:
规模:$1M(初始)→ 持续扩大
方向:AI 驱动的网络安全能力量化、网络防御大规模部署
优先:开源软件和基础设施漏洞修复团队
Adaptive Security 投资(OpenAI Startup Fund 首笔安全投资):
轮次 | 时间 | 金额 | 投资方 |
|---|---|---|---|
Series A | 2025.04 | $43M | a16z + OpenAI Fund |
Follow-on | 2025.09 | +$12M → $55M | OpenAI Fund 加码 |
Series B | 2025.12 | $81M | Bain Capital + NVentures + OpenAI Fund + a16z |
累计 | $146.5M |
Adaptive Security 做的是AI Deepfake 社工攻击模拟— 伪造电话/短信/邮件测试企业员工。2023→2024 年 deepfake 事件增长17 倍。
Codex for OSS:
免费提供 ChatGPT Pro/Plus 账号给开源维护者
免费 Codex Security 扫描
API Credits(通过 Codex Open Source Fund)
vLLM 等项目已在用
最高赏金500% 提升($20K → $100K+)
GPT-5 Bio Bug Bounty:$25K 奖金挑战通用 jailbreak
2025.08 Check Point 发现 Codex CLI 存在命令注入漏洞— 攻击者在项目仓库中植入恶意配置文件即可在开发者机器上执行任意命令。OpenAI 在 13 天内修复(v0.23.0)。
玩家 | 产品 | 发布时间 | 特点 |
|---|---|---|---|
OpenAI | Codex Security | 2026.03.06 | 威胁模型驱动、沙箱验证、14 CVEs |
Anthropic | Claude Code Security | 2026.02.20(比 OpenAI 早 2 周) | Claude Opus 4.6 驱动、发现 500+ 漏洞 |
— | 未独立发布 | 通过 Gemini in Security 间接布局 |
Anthropic 发布 Claude Code Security 后,Palo Alto、CrowdStrike、SentinelOne 等安全公司股价明显下跌。
另外值得一提:AI 安全创业公司 AISLE 发现了 OpenSSL 2026 年 1 月安全补丁中公布的全部 12 个零日漏洞,包括一个罕见的高严重性发现。AISLE 的 AI 系统贡献了 2025 年 OpenSSL 14 个 CVE 中的 13 个。
Hacker News 讨论
主帖:
漏洞严重性之辩:有人质疑"沙箱内漏洞算不算真漏洞",被反驳 — Firefox 和 Chrome 都将沙箱内漏洞独立视为安全问题
与 AI Slop 的对比:Curl 维护者因 AI 垃圾报告放弃了 bug bounty,但也承认"有能力的 AI 分析器确实能发现真东西"。Anthropic 的报告质量被 Mozilla 明确认可 — 包含了可快速验证的最小测试用例
Mozilla 官方态度:积极,称之为"fuzzing 早期时代的再现",已开始整合 AI 辅助分析
Tildes 社区有人写道:"Anthropic has gained quite a bit of respect from me recently... this is the kind of AI applications that I think really do more good than harm."
The Register 论坛 / Infosec 社区
The Register 标题党:"Infosec community panics as Anthropic rolls out Claude code security checker"
社区反应分三派:
立场 | 代表观点 |
|---|---|
谨慎乐观 | "wouldn't mind running code through it to spot security holes, but definitely not take its response at face value" |
嘲讽派 | "infosec companies should be licking their chops at the thought of charging 10x as much to fix the mess AI leaves behind" |
恐慌派 | 股市就是最好的证据 — $150 亿市值蒸发 |
行业 CEO 反应
人物 | 态度 | 观点 |
|---|---|---|
George Kurtz (CrowdStrike) | 防御性 | "An AI capability that scans code does not replace the Falcon platform" |
Nikesh Arora (Palo Alto) | 困惑 | "Confused why the market would treat AI as a threat" |
Isaac Evans (Semgrep) | 谨慎支持 | "Very excited, but none of the foundation model companies have published detailed false positive statistics" |
Glenn Weinstein (Cloudsmith) | 支持 | "One of many safeguards in a wide range of defenses" |
Joe Silva (Spektion) | 兴奋 | "The ultimate red-team tool — reasons about code like a seasoned analyst, not just match patterns" |
CISO 意识到人类团队无法规模化对抗自动化攻击者
瓶颈不是模型,是agentic scaffolding layer
安全编码培训将转向训练 AI 代码生成器
"攻击者即将在资产管理上变得非常厉害 — 但他们管理的是我们的基础设施"
Rapid7:AI 代码分析单独来看不会实质性降低企业入侵风险,企业风险集中在运行时环境 — 复杂的身份体系、权限错位、暴露的服务 — 这些是运维现实,不是源码问题
Wedbush:"This selloff is all on 'AI Ghost Trade' fears... it will prove to be the wrong reaction for clear winners like Palo Alto, CrowdStrike, Zscaler"
"放大器,而非替代品"(目前共识)
"I already see these tools as a replacement for SCA, and for less critical codebases, as a replacement for traditional SAST. For critical code, they are an amplifier — but in the long term, a full replacement."
— 一位渗透测试从业者的评测
AI 扫描器的根本性优势
传统 SAST 靠模式匹配,AI 扫描器靠语义理解。DAST 仍不可替代,因为:
"AI analyzes code. DAST validates reality."
— 业务逻辑漏洞(BOLA/BFLA)不会出现在代码模式中,只有在运行时测试 User A 能否访问 User B 的数据时才暴露。
AI 幻觉:中国 APT 用 Claude 自动化 80-90% 攻击操作,但 Claude 频繁幻觉 — 声称不存在的凭据、把公开信息标为"重大发现"
过度依赖:2025.07 Amazon Q VS Code 扩展被入侵,根因是"太依赖 AI 检查安全,人工审查不足"
对称性困境:"Capabilities are symmetrical but speed to operationalize is asymmetrical in favor of attackers"
Shadow AI:63% 员工向个人 AI 账号粘贴敏感数据;企业平均有 1,200 个未授权 AI 应用
规模爆炸:50 个开发者产生 15,000 个 SAST findings → 使用 AI 助手后变成75,000+
经济学冲击
"ARTEMIS 的成本对比($18/小时 vs $150K+/年的人类渗透测试员)对于以前无法负担持续渗透测试的小型组织来说是真正的 game-changer。"
入门岗位受冲击最大
专注告警监控、合规检查单等例行任务的初级岗位最容易被自动化。新兴岗位如 AI Threat Analyst、ML Security Engineer 正在重塑招聘需求。
Check Point 发现了Claude Code 自身的严重漏洞(CVE-2025-59536, CVE-2026-21852):
通过恶意项目配置文件(Hooks / MCP servers / 环境变量)实现RCE + API Token 窃取
Anthropic 已在披露前修复
另外,一个中国 APT 组织被曝利用 Claude 自动化 80-90% 的间谍行动,但 Claude 在操作中频繁幻觉— 声称不存在的凭据、把公开信息标为"重大发现"。
2025.04 OpenAI Fund 首投安全:Adaptive Security $43M Series A
2025.08 Codex CLI 命令注入漏洞(Check Point 发现,13 天修复)
2025.09 Adaptive Security 追投至 $55M
2025.10 Aardvark 私测发布,10 CVE
2025.11 GPT-5.1-Codex-Max CTF 得分 76%
2025.12 Adaptive Security $81M Series B
OpenAI 警告未来模型达到 "High" 安全风险
GPT-5.2-Codex 发布
2025 年底 Anthropic 发现 Opus 4.5 接近解决 CyberGym 全部任务
2026.01 GPT-5.3-Codex → 首个 "High" 级模型
Trusted Access for Cyber + $10M API Credits
2026.02 Anthropic Opus 4.6 发现 500+ 零日漏洞
Firefox 扫描启动(112 报告 / 22 CVE / 14 High)
2026.02.20 Claude Code Security 发布 → 安全股 $150 亿蒸发
2026.02.24 Firefox 148 修复大部分漏洞
2026.03.05 GPT-5.4 发布
2026.03.06 Codex Security 公开 Research Preview(14 CVE,新增恶意软件分析)
Anthropic 公布 Firefox 合作细节 + CVE-2026-2796 exploit writeup
Mozilla 自己说的。传统 fuzzing 靠覆盖率驱动,AI 靠语义推理。CGIF 的 100% 覆盖率仍遗漏堆溢出的案例,是对整个 coverage-guided fuzzing 范式的直接挑战。已部署软件中存在一个巨大的、此前不可发现的漏洞积压库,正在被 AI 快速解锁。
目前 AI 发现漏洞的能力远超利用漏洞的能力($4K API credits 只成功了 2 个 exploit),给防御方一个窗口期。但 Anthropic 自己都在警告这个差距不会持续太久。谁先把 AI 安全工具整合进工作流,谁就在窗口期内占据先机。
OpenAI 的 Trusted Access 和 Anthropic 的受控发布,实质是在决定"谁能获得完整的攻防能力"。这是一种全新的权力结构:不再是政府在管控零日漏洞交易,而是 AI 公司在管控发现零日的能力。
TODO: 持续追踪 Codex Security 和 Claude Code Security 的实际企业部署效果,以及 DAST 厂商如何应对。目前的数据都来自 AI 实验室自己的 benchmark,还没有独立第三方的大规模对比评测。这块信息出来之前,上面的召回率/假阳性数字只能作为参考。
Sources
Anthropic / Firefox / Claude Code Security
Partnering with Mozilla to improve Firefox's security | Anthropic
Hardening Firefox with Anthropic's Red Team | Mozilla Blog
Reverse engineering Claude's CVE-2026-2796 exploit | red.anthropic.com
Anthropic 0-Days | red.anthropic.com
Claude Code Security | Anthropic
Anthropic's Claude found 22 vulnerabilities in Firefox | TechCrunch
Anthropic's Claude uncovers 22 Firefox security vulnerabilities | Axios
Claude Opus 4.6 uncovers 500 zero-day flaws | Axios
Claude Opus 4.6 Finds 500+ High-Severity Flaws | The Hacker News
Anthropic Claude Code Security Triggers Flash Crash | Bloomberg
Cybersecurity stocks drop for a second day | CNBC
Infosec community panics | The Register
Claude Found 500 Zero-Days. Who Patches Them? | Futurum Group
Why Anthropic Launching Claude Code Security Is Great News | Snyk
Claude Code Security and Market Reaction | Rapid7
Wedbush sees selloff as overreaction | Yahoo Finance
RCE through Claude Code project files | Check Point
Claude AI Uncovers 22 Firefox Vulnerabilities | CybersecurityNews
Anthropic Claude Opus 4.6 Critical Vulnerabilities Analysis | Rescana
OpenAI / Codex Security
Codex Security: now in research preview | OpenAI
Codex for Open Source | OpenAI
Introducing Aardvark | OpenAI
Strengthening Cyber Resilience | OpenAI
Trusted Access for Cyber | OpenAI
OpenAI Cybersecurity Grant Program
OpenAI's First Cybersecurity Investment | TechCrunch
Adaptive Security $55M | PRNewswire
Adaptive Security $81M Series B | PRNewswire
OpenAI Rebrands Aardvark as Codex Security | Awesome Agents
OpenAI Rolls Out Codex Security | Axios
GPT-5.3-Codex "High" Cybersecurity | The Decoder
Codex CLI Vulnerability | Computing
社区与分析
Hardening Firefox with Anthropic's Red Team | Hacker News
Anthropic: Latest Claude model finds 500+ vulnerabilities | Hacker News
The Register Forums Discussion
Privacy Guides Community Discussion
Tildes Discussion
Cybersecurity Changes I Expect in 2026 | Daniel Miessler
AI Changes I Expect in 2026 | Daniel Miessler
Hacking with AI SASTs — Penetration Tester Review | Joshua Rogers
tl;dr sec #304 — OpenAI & DeepMind's AI Security Agents
Sam Altman: AI Agents Security Problem | Windows Central
ISACA: Can AI Replace Security Professionals
Claude Code Security: The AI Shockwave | Security Boulevard
Claude Code Security: Why the Real Risk Lies Beyond Code | GitGuardian