就在2025年10月28日,新修订的《网络安全法》颁布。新增的第20条明确指出“国家支持创新网络安全管理方式,运用人工智能等新技术,提升网络安全保护水平”。以Agentic AI为代表的最新型AI赋能安全运营,顺应了《网络安全法》的要求。
当前,Agentic AI赋能的Agentic SOC(自主式SOC)平台(即Agentic SOP)正发展得如火如荼,不断攀上炒作的高峰。Agentic SOC平台以LLM作为思考中枢,具有自主推理、规划和决策能力,能够调用各种工具自动完成预定的安全运营任务,并通过人机协作,共同实现常态化安全运营目标。
此前,笔者已经梳理过SOC从手工化到自动化再到自主化的演进过程和SOC的自主化水平划分,也详细阐述了Agentic SOP的五大关键技术特征,并介绍过Gartner对Agentic AI的释义,还分析过国外主要Agentic SOC平台厂商最新的发展动态。
本文将分享一篇发表于CSO在线网站的讨论Agentic SOC平台落地实践的文章【注1】。通过对正在试点和部署Agentic AI赋能的安全运营项目,或为相关项目提供咨询的安全高管、产品负责人和研究人员进行调研访谈,让我我们更清晰的认识Agentic SOC的现状。同时,本文也包括笔者对该访谈信息的评论。
访谈内容涉及6个议题。
| 优势 |
与仅标记待审查行为的传统工具不同,基于智能体的系统 “能够处理L1任务,例如警报分类、跨工具关联信号,在部分场景下甚至能采取威胁遏制措施(如隔离终端),让分析师专注于更具战略性的重要工作”。 自主式 AI 的核心价值在于将人类分析师从“重复性苦差” 中解放出来,让他们专注于更高层次的探索与威胁狩猎工作。 ——FifthElement 首席执行官兼企业 AI 战略师 Jonathan Garini |
在安全运营中心环境中,AI 智能体的运作 “酷似数字L1分析师 —— 筛选数据、收集情境信息,甚至能生成关于自身活动的详细报告”。他还提到了 AI 智能体在恶意软件检测、脚本反混淆、工具协同等场景的实际应用。 引入智能体的团队还能实现 “更快的响应速度、更精简的团队架构,以及在海量警报处理中的更强韧性”。 ——美国银行数据驱动解决方案与应用 AI 专家 Vinod Goje |
自主式 AI 擅长 “应对‘最初 15 分钟’的紧急场景 —— 获取情境信息、核查威胁情报、汇总日志、提出待审核行动建议”。此外,它还能通过优先级排序助力漏洞暴露管理,并处理诸如识别失效账户等基础安全维护任务。 ——OPSWAT 公司产品副总裁 Itay Glick |
AI 智能体通过聚合警报模式,并将其与威胁情报源关联,有效缓解了 “警报疲劳”;同时,基于自然语言处理(NLP)的工具能够实现大规模警报汇总。 ——Black Duck 首席产品与技术官 Dipto Chakravarty |
| 局限 |
若缺乏清洁数据或清晰的剧本(工作流),智能体可能会陷入无效信息干扰,甚至自主 “创造” 流程步骤 ——OPSWAT 公司产品副总裁 Itay Glick |
| Agentic AI存在误报与过拟合问题。——Black Duck 首席产品与技术官 Dipto Chakravarty |
即便训练最充分的智能体,也可能被模糊信号或多层级情境难住。 ——Mphasis 公司高级副总裁兼全球网络安全服务主管 Prashant Jagwani |
通过专家的表述,可以发现,尽管Agentic AI有N个优势,但在当前的具体实践上,主要还是针对L1分析师的告警研判过程有显著的效果。当前的实战应用程度表明,大多数企业仍将Agentic AI作为人类分析师的辅助工具,而非替代品。
正如Gartner所言,生成式AI在安全运营中的价值依然严重依赖SOC分析师的先验技能水平。要么,在预训练和微调的时候,该LLM灌输大量的高质量先验安全运营知识,得到所谓的安全垂域模型(Gartner将此类模型称作DSLM),并应用于Agentic AI;要么,在使用LLM思考的时候给智能体丰富的先验安全运营知识,并结合上下文工程让LLM思考得更加像一名老练的分析师。
与此同时,当前Agentic AI还存在诸多局限,但也正在快速发展演进。Gartner警告,到 2027 年,30% 的 SOC 领导者将因输出不准确和幻觉而无法将生成式AI整合到生产流程中。
附加模式:将智能体视为SOP、SIEM、SOAR或其他安全工具的扩展,能以最小干扰实现快速见效。
独立模式:此时智能体位于一个独立的编排层,虽具备更高灵活性,但需更严格的治理、更复杂的集成工作与更全面的变革管理。
直接构建在 SIEM 或 SOAR 平台之上的现成附加模式通常效果最佳,而独立框架 “往往需要投入更多精力进行编排与治理” ——FifthElement 首席执行官兼企业 AI 战略师 Jonathan Garini |
“Microsoft’s Security Copilot 帮助分析师自动分类警报、过滤无效信息;CrowdStrike 也在开展类似工作;Google 则推出了基于 Gemini 的智能体,能够完成端到端的警报调查。目前行业主流仍停留在‘附加与扩展’阶段。” 附加组件受欢迎的原因之一在于:替换或深度集成新的安全运营平台是一项艰巨任务 ——“部署、人员再培训、流程调整可能需要数月时间,而在此期间,团队仍需应对实时威胁。” ——Checkpoint 公司网络安全与 AI 专家 Amit Weigman |
两种模式的选择在于“速度与灵活性的权衡”。“附加式便于快速采用,但动态性较弱;独立系统控制力更强,却需要更多部署与维护工作。” ——Mindgard 公司首席营销官兼 AI 安全倡导者 Fergal Glynn |
提出了一个 “经验法则”:若大部分数据存在于现有 SIEM/SOAR 流程中,附加模式是更优选择;若需处理分散在 IT、运营技术(OT)、云及软件即服务(SaaS)中的数据,独立智能体层则更有效,且 “能减少‘频繁切换系统’的麻烦”。 ——OPSWAT 公司产品副总裁 Itay Glick |
大多数企业从附加模式起步 —— 既能依托现有投资,又能在可控环境中测试效果。而独立框架通常是后续步骤,仅当企业准备好跨混合云或多云环境实现集中化管理时才会部署。 “从客户项目中我们总结出一个经验,许多SOC低估了集成的复杂性。这不仅是 API 连接系统的问题,更需要让智能体的决策逻辑与现有剧本、风险容忍度对齐。附加组件模式为这种对齐提供了更平缓的路径,而独立编排往往是成熟度提升后的第二阶段工作。” ——Mphasis 公司高级副总裁兼全球网络安全服务主管 Prashant Jagwani |
SOC平台是一个复杂的、迭代演进的平台,对于已有SOC平台的用户而言,如何逐步演进到新的Agentic SOP阶段,需要根据自身目标和具体情况做好路径规划。因此,当前Agentic SOP可以分为两种部署模式:叠加型部署和替代型部署。
叠加型部署相当于上文提到的“附加模式”,也就是在现有SOP基础之上部署一个叠加型Agentic SOP,获取现有SOP的告警、事件等信息,结合可以得到的上下文信息,基于Agentic AI进行分析、研判、调查、响应、报告,再将结果返回给现有SOP。此时,用户的安全运营组织和流程基本维持不变,Agentic AI就是在现有SOP基础上进行赋能。叠加型Agentic SOP可以认为是一个裁剪版的SOP,聚焦于安全运营任务的自主化,其技术架构更接近于一个智能体管理与运行平台。
叠加型Agentic SOP可以分为两类。一类是专门的产品,在国外经常被称作“AI SOC分析师”(Gartner称之为“AI SOC Agent”,即“SOC智能体”),主要用于实现L1分析师(有的也针对L2/L3分析师)的工作自动化和自主化,多采用SaaS模式交付。另一类则是作为完整的Agentic SOP产品的一个可拆分功能组件(子系统)。
替代型部署相当于上文提到的“独立模式”。替代型Agentic SOP架构和功能更加完整,具有跨域多源数据采集、归一、存储、分析等能力,具备较为完善的安全数据中心和较为完整的原生AI安全运营功能,并将多智能体管理与运行子系统内置于平台中。采用替代型部署时,Agentic SOP通常完全或者部分替代现有的SOP。此时,用户的安全运营平台面临较大的升级,可能涉及组织结构和流程的调整,数据的迁移,等等。
两种模式各有利弊。如果用户对自身现有SOP比较满意,可以优先采用叠加型Agentic SOP,如果对现有SOP的某些部分(甚至全部)不满意,则可以考虑采用替代型Agentic SOP。当然,如果用户要新建SOP,则应该优先考虑替代型Agentic SOP。
目前来看,国内外很多用户都对现有SOP的安全数据中心部分存在不满,这也是导致告警疲劳的根源。这个问题仅靠Agentic AI不足以消除(在低质量数据之上加载AI依然难以得到理想效果),需要对安全数据中心的技术架构进行调整。也就是说,如果不调整现有SOP数据架构,Agentic AI赋能作用有限。现在主流的Agentic SOP都采用了新一代数据驱动架构。因此,现在越来越多的用户优先采用替代型Agentic SOP去优化现有的安全运营数据中心架构,并在此基础上扩展Agentic AI能力。
实践表明,用户更倾向于在不影响现有运营的前提下,逐步叠加新功能,因此试点成为常见的第一步。
自主式 AI 的落地很少一蹴而就,“大多数安全团队不会用全新的 AI 系统彻底替换现有安全运营中心 —— 这不仅成本高昂,还需要大量时间与人力投入,最终可能因破坏性过大、成本过高而难以推进。” ——Checkpoint 公司网络安全与 AI 专家 Amit Weigman |
“对于有意部署自主式 AI 的组织,我的首要建议是:先以试点形式开展小型用例,例如钓鱼攻击响应或凭证滥用检测,再逐步扩展到更广泛的检测与响应场景”。聚焦特定场景有助于团队在大规模变革前验证技术价值与可靠性。 ——FifthElement 首席执行官兼企业 AI 战略师 Jonathan Garini |
一旦智能体投入使用,治理体系也需随之升级。团队不会摒弃现有框架,而是对其进行适配:“将现有的变更控制、职责分离规则融入智能体工作流程 —— 例如,破坏性操作需双人签字确认,根据风险等级决定‘自动执行’‘咨询后执行’或‘升级处理’,并在正式部署前通过沙盒环境测试。” 此外,如今智能体也被纳入红队测试,通过提示注入、“越狱” 尝试等方式检验安全性。“核心框架并未改变,只是在智能体场景中变得更加明确。” ——OPSWAT 公司产品副总裁 Itay Glick |
治理与风险控制通过 “人机协同”(Human-in-the-Loop)审批得以扩展,而非彻底重构。除非 AI 达到更高水平的通用智能,否则完全替代现有监管框架并不现实。 ——Mphasis 公司高级副总裁兼全球网络安全服务主管 Prashant Jagwani |
Agentic AI在SecOps的应用,不是一个简单的工具或者功能的应用,而是一个体系的应用,必然涉及到安全运营体系的变革,以及相应带来的运营组织变革。正如笔者在《迈向AI赋能的SOC4.0时代》一文的5.4小节所述,未来的安全运营一定是自动化和智能化优先的,这就必然引发安全运营过程中人与机器之间协作关系的重新适配,进而需要我们重塑运营的治理体系、组织结构、流程规范。
在《从Gartner2025年北美安全峰会看安全运营的发展趋势》一文中,笔者介绍过一幅Gartner的分析师运营工作迁移图,也体现了运营组织的变化。
一些旧的岗位消失或者弱化了,一些新的岗位职责产生了。当然,这个过程不是一蹴而就的,而应该是渐进式的,随着Agentic AI应用深入而持续深化。
自主式 AI 的核心优势在于自主性,但这也成为其落地的主要障碍:许多组织不愿让智能体在生产环境中自主运行。
“若智能体在威胁响应中被误用或部署不当,其执行的一系列操作可能会引发新风险。例如,可能出现未受监管的脚本执行,或暴露新发现的漏洞。” 因此,大多数组织在缺乏强有力保障措施的情况下,不会允许智能体完全自主运行。 建议将智能体视为 “协作式数字伙伴”,通过人机协作提升AI的透明度。 ——美国银行数据驱动解决方案与应用 AI 专家 Vinod Goje |
“AI 仍像是一个‘黑箱’,” 他说,“人类分析师虽也会犯错,但管理者清楚其失误范围,能量化相关损失;而对于 AI,我们往往‘不知道自己不知道什么’,这种不确定性自然会引发担忧。” 大多数使用者会 “在高风险操作中坚持人机协同 ——AI 可提供建议或分类信息,但最终决策权仍归属分析师”。 部署专注特定领域的 “狭义智能体(Narrow Agent)” 有助于提升可见性。“无需构建一个庞大的‘黑箱式 AI 大脑’,而是打造一组专业化智能体 —— 每个智能体的职责范围明确,便于监控与解释。” ——Checkpoint 公司网络安全与 AI 专家 Amit Weigman |
“所有操作都需有审计跟踪 —— 从提示输入、工具调用,到输出结果与审批流程,无一例外。” ——OPSWAT 公司产品副总裁 Itay Glick |
文档记录至关重要:“所有受监管操作都需记录、验证,并最终可审计。我们不仅要知道 AI‘做了什么’,还必须阐明它‘为何采取这些特定行动’。” ——BigID 公司安全副总裁 Kyle Kurdziolek |
| 金融服务领域的监管机构尤其看重 “可审计中的可解释性”。“这意味着 AI 输出不能仅是‘黑箱式建议’”。当前,“团队正开始部署分层审计跟踪系统,将智能体的决策拆解为输入数据、置信度评分与升级逻辑。” ——Mphasis 公司高级副总裁兼全球网络安全服务主管 Prashant Jagwani |
文章认为,当前Agentic AI的问题在于“透明度”不够,需在 AI 工作流程中建立 “可见性” 与 “责任制”,以提升“透明度”。与此同时,人在运营回路之中(Human in the operations loop,即“人机协作”)也十分关键,这既是当下AI能力不足的体现,也是未来人类维持主导的必然。此外,笔者认为,需要建立AI失效的机制和预案,关键的运营工作能够在AI失效后维持运转。
显然,为了建立AI的“透明度”,需要针对AI进行额外的投资。在考虑Agentic SOP的投入时,还应该考虑到围绕Agentic AI建立“可见性”与“责任制”的附带投入。而这不能仅靠Agentic SOP自身的安全与可靠性(Security & Saftey)机制,也不能仅依靠第三方的AI安全与可靠性产品或解决方案,还需要组织自身的治理结构的调整。这也是当前阻碍Agentic AI在客户侧落地的重要阻碍之一。从这个意义上而言,建立Agentic SOP,投资不小,可以将Agentic SOP的安全与可靠性投资与企业整体的AI投资进行统筹考虑。
若智能体接管了一级分析师的工作,安全运营中心的新成员该如何成长?
传统上,一级分析师的工作是安全领域的 “入门训练场”。自主式 AI 带来了一个悖论:它虽将人类从重复性分类任务中解放出来,却也可能削弱新分析师通过处理警报积累的 “肌肉记忆”。
但实际上,许多机械性分类工作(如过滤明显误报、清理重复警报、升级常规钓鱼案件)仅能锻炼分析师的耐心,无法带来实质性能力提升。AI 擅长处理这类琐碎任务,而人类分析师可专注于更复杂的挑战。
这一转变让一级岗位从 “苦差事” 变为 “指导性训练场”:新分析师无需淹没在无效信息中,而是通过研究 AI 整理并记录的案例,通过探究智能体的决策逻辑学习知识。因此,若缺乏合理规划,自主式 AI 确实可能导致人才培养断层;但只要善加利用,它完全能加速技能提升。
——美国银行数据驱动解决方案与应用 AI 专家 Vinod Goje笔者认为,Vinod Goje是比较乐观的,反观Gartner,则预测“到2030年,由于过度依赖自动化和AI,75%的SOC团队的基础安全分析技能将会退化”【注:该条目入选Gartner2025年8大网络安全预测】。如何不退化?这就需要重新考虑人才培养的方式。如Vinod Goje所言,初级安全分析师的成长路径在AI时代发生了变化,需要保持学习能力,从AI中去学习,从可解释性AI研判的结果和过程中去学习。此外,要明确哪些运营工作应保持人类主导,哪些工作需要人机协作(HITL)以及如何人机分工。
自主式 AI 的能力与治理固然重要,但推动其在安全领域落地的核心动力之一仍是 “经济性”。安全负责人最关心的问题是:它能为我们节省多少时间与成本?而答案往往并不简单。
文章认为,这个问题可能将决定自主式 AI 在网络安全领域的未来。尽管技术正快速成熟,但其能否长期立足,最终取决于企业是否将其视为 “重塑安全运营中心运作模式的可持续方案”。
“定价仍是一个摩擦点”,“供应商正尝试基于使用量的定价模式,但企业更倾向于将支出与‘节省的分析师工时’挂钩,而非‘原始计算资源或 API 调用量’。” ——FifthElement 首席执行官兼企业 AI 战略师 Jonathan Garini |
当前 AI 定价模式差异显著:“收费方式可能是订阅制、按席位收费、按警报数量收费,部分供应商还提供基于使用量的方案。先进智能体系统通常价格较高,因其影响范围更广,能为分析师节省更多工作量。” ——Mindgard 公司首席营销官兼 AI 安全倡导者 Fergal Glynn |
部分团队正在尝试 “按席位、按任务或混合模式” 定价,但是:“存储、API 费用、长提示处理、剧本维护等隐性成本会迅速累积”。“投资回报率(ROI)最终应体现在具体指标上,例如更快的检测与响应速度、每位分析师处理更多案件、更少的无效警报”。 ——OPSWAT 公司产品副总裁 Itay Glick |
各团队正 “全面探索定价模式”,基于使用量的模式与混合模式仍在不断演进。企业预算不仅要覆盖软件成本,还需包含在本地与云端运行大型模型的混合基础设施成本。 ——Black Duck 首席产品与技术官 Dipto Chakravarty |
简单的定价指标往往会忽略关键问题:“隐性成本通常出现在特定领域数据模型再训练、清洁结构化遥测数据管道搭建等环节。” 最佳投资回报来自于将智能体视为 “长期流程重构的一部分”,而非 “又一个插件”。 ——Mphasis 公司高级副总裁兼全球网络安全服务主管 Prashant Jagwani |
投资回报率的衡量没有 “统一标准”。“每个组织都有差异” 。“部分组织从效率角度评估:智能体识别的真阳性 / 假阳性事件数量有多少?它发起了多少起事件调查?另一些组织则从资源角度考量:节省了多少警报分类时间?需要多少次复核智能体输出?实际时间节省是否达标?” 核心问题其实很简单:智能体能否在分类与调查工作中节省足够时间,让安全团队有更多精力提升企业整体安全能力? ——BigID 公司安全副总裁 Kyle Kurdziolek |
安全运营平台的定价越来越需要跟价值挂钩,但这并非易事。Agentic SOP具体发挥多大的价值,不是厂商标称的,也跟各个用户具体环境和应用水平相关。
在评估投资回报率的时候,一方面在计算投资时,要涵盖“冰山水面之下的部分”,不仅包括Agentic SOP软件系统的投资,还包括LLM(软硬件和算力消耗)的投资,AI安全与可靠性方面的投资,以及配套的安全运营组织人员(包括自有和外包)方面的投资。另一方面在计算回报(价值)的时候,可以采用指标体系去评估。而指标体系跟项目建设的目标密切相关,并没有统一标准,不能简单的采取“拿来主义”。
这里,笔者想借用另一篇文章【注2】的结尾作为本文的总结。
Agentic AI从根本上改变了我们对安全自动化的认知 —— 从僵化的 “规则驱动系统”,转向具备适应能力与推理能力的 “合作伙伴”。但与所有强大工具一样,其价值完全取决于部署方式的审慎性与责任感。
那些能在 SOC 中成功应用Agentic AI的企业,往往能抵制 “将其视为解决所有安全问题的万能方案” 的诱惑。相反,它们会将其视为 “需要精心集成、持续监督与不断优化的复杂能力”。
未来的发展路径并非 “在人类分析师与智能体之间二选一”,而是 “构建人机混合团队”—— 让两者发挥各自独特优势。智能体带来速度、稳定性与海量信息并行处理能力;人类分析师则贡献创造力、上下文理解、伦理判断,以及应对 “无法被预定义” 的模糊场景的能力。
SOC运营的未来在于这种协作 —— 但前提是,我们能构建必要的治理、安全与监控框架,确保其可靠、安全地运行。Agentic AI并非解决网络安全挑战的 “银弹”,但如果部署得当,它将成为构建 “更具韧性、响应更快、效率更高的安全运营” 的强大工具。
如今,问题已不再是 “Agentic AI是否会改变SOC运营”—— 它已然在改变。真正的问题是:企业能否足够快地调整 AI 部署策略,在抓住机遇的同时规避风险?那些平衡好这一点的企业,将在持续的网络威胁对抗中获得显著竞争优势;而那些急于拥抱安全自动化未来、却忽视风险的企业,则可能为自身埋下新的漏洞。
【注1】文中涉及的受访信息源自文章:Agentic AI in IT security: Where expectations meet reality,链接:
【注2】结尾引用的博客文章:The Agentic AI Revolution in SOC: Promise, Peril, and the Path Forward,链接:
https://www.sisainfosec.com/blogs/the-agentic-ai-revolution-in-soc/
浅析SecOps中的AI Agent和Agentic AI,以及SOC自主化水平模型Gartner分析师谈AI Agent和Agentic AI国外Agentic SOC最新进展(2025Q3)迈向AI赋能的SOC4.0时代从Gartner2025年北美安全峰会看安全运营的发展趋势从RSAC2025看安全运营技术发展趋势2024年安全运营技术趋势回顾自主化安全运营平台技术解析与实践