
根据Pentera发布的《2026年AI与对抗性测试基准报告》,大多数安全负责人正面临严峻挑战——他们用于保护AI系统的工具和skills已无法应对当前威胁。该报告调研了300位美国CISO及安全高管,揭示了企业在保护AI基础设施时存在的关键缺陷:skills短缺以及对非AI时代安全控制措施的依赖。
AI应用速度远超安全可见性范围
AI系统很少独立部署,而是分层集成于企业现有技术架构中,覆盖云平台、身份系统、应用程序及数据管道等多个层面。由于管理权分散在不同团队,有效的集中监管机制已名存实亡。
数据显示,67%的CISO承认对其组织内AI使用情况缺乏全面掌握。没有任何受访者表示具备完整可见性,他们普遍意识到或默许存在未受监管的AI使用行为。当安全团队无法明确AI系统的运行位置及资源访问权限时,风险评估就变得举步维艰。诸如"AI系统依赖哪些身份凭证"、"可访问哪些数据"、"控制措施失效时的行为模式"等基础问题往往得不到解答。
核心障碍在于skills短缺而非预算
尽管AI安全已成为董事会常规议题,但研究表明最大挑战并非资金问题。CISO们认为保护AI基础设施的主要障碍包括:
- 内部专业人才匮乏(50%)
- AI使用可见性不足(48%)
- 专为AI设计的安全工具缺失(36%)
仅有17%的受访者将预算限制列为主要顾虑。这表明多数企业愿意投资AI安全,但缺乏在实际环境中评估AI相关风险的专业skills。AI系统带来的自主决策、间接访问路径及系统间特权交互等新型行为模式,仍需安全团队持续学习应对。若缺乏专业知识和主动测试,现有控制措施的有效性将难以验证。
传统控制措施承担主要防护重任
在缺乏AI专用最佳实践、skills和工具的情况下,大多数企业选择扩展现有安全控制措施来覆盖AI基础设施。研究发现,75%的CISO依赖终端防护、应用安全、云安全或API安全等传统工具保护AI系统,仅11%部署了AI专用安全工具。
这种做法与历次技术变革初期的应对模式如出一辙——在定制化安全方案成熟前,企业会先改造现有防御体系。虽然传统措施能提供基础防护,但其设计并未考虑AI带来的访问模式变革和攻击路径扩展。
历史性挑战在AI时代的重演
综合来看,AI安全挑战源于基础能力缺口,而非认知或意愿不足。随着AI成为企业核心基础设施,报告建议组织需要重点培养专业人才,并改进对AI运行环境中安全控制措施的验证方式。
参考来源:
AI is Everywhere, But CISOs are Still Securing It with Yesterday's Skills and Tools, Study Finds
本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf
客服小蜜蜂(微信:freebee1024)


