大模型应用落地安全风险和防护实践
火山引擎郑炎亭探讨大模型应用落地安全风险与防护实践,分析提示词越狱、数据窃取等五大高危场景,并提出全栈防护方案。报告指出AI已融入生产核心,安全成为业务连续性关键。 2025-9-4 13:17:38 Author: vipread.com(查看原文) 阅读量:0 收藏

《大模型应用落地安全风险和防护实践》由火山引擎郑炎亭主讲,聚焦后DeepSeek时代的真实攻防:提示词越狱、RAG数据窃取、Log4j 诱导RCE、算力DDoS、幻觉误导五大高危场景,并给出从接入层到训练层的全栈防护方案——大模型应用防火墙+密文RAG+熔断限流+幻觉检测。报告强调,AI已进生产核心,安全即业务连续性,防护目标正从合规转向核心资产保险。

火山引擎大模型应用防火墙产品负责人 郑炎亭在《大模型应用落地的安全风险与防护实践》的分享中,探讨大模型应用在各行各业落地过程中面临的安全风险及相应的防护实践。

郑炎亭观察到,过去,不同行业在引入新技术时注重快速验证和部署,安全往往被视为次要考虑因素。随着 DeepSeek 等工具的普及,AI 技术的成本降低、门槛变低,越来越多的企业开始重视 AI 应用的安全性,特别是在生产环境暴露面增大后带来的潜在威胁。

当前的安全挑战不仅包括传统的 DDoS 攻击、薅羊毛滥用等,还涉及大模型特有的风险,如提示词注入、模型幻觉等问题。以提示词注入为例,通过简单的拼接即可实现对模型的操控,使得攻击成本大幅降低,这对企业的数据安全构成严重威胁。

为应对这些挑战,郑炎亭提出一些实践思路:一是对提示词过滤与监控,对输入输出实施严格过滤,减少恶意利用的可能性。二是对运行环境做安全保障,使用加密技术和机密计算来保护敏感信息处理过程中的安全性。三是模型安全性测评,测试模型识别并拒绝执行恶意代码或生成有害内容。

郑炎亭谈到大模型的幻觉问题确实不易解决。大模型幻觉分为事实性幻觉和忠实性幻觉。对于不同的幻觉应设计不同的应对方案,郑炎亭介绍几种在推理端处理幻觉问题的方法,强调在推理端更具性价比且更可控。

https://mp.weixin.qq.com/s/6rlyOEhF1CkX7Kvnj4ZISw


文章来源: https://vipread.com/library/topic/4028
如有侵权请联系:admin#unsafe.sh