这是 ChaMD5 安全团队 AI 组的第一篇关于大语言模型(LLM)的安全研究报告,尽管团队在 AI 安全领域已经有了一定的积累, 但由于是初次撰写报告, 我们深知在专业性与严谨性方面可能存在着诸多不足。真诚地希望各位读者老师能够不吝赐教,对报告中的任何问题提出宝贵的意见与建议,帮助我们不断改进与提升。
- 引言
- LLM 安全格局:机遇与风险并存
- 剖析核心风险:OWASP LLM Top 10 (2025 版) 详解
- 真实世界的威胁:LLM 与供应链安全案例研究
4.1. 案例研究:数据投毒 - PoisonGPT 实验
4.2. 案例研究:软件供应链攻击 - PyTorch 'torchtriton' 事件
4.3. 启示与影响
- 安全构建:LLM 开发与防御框架及工具
5.1. 开发编排框架:LangChain
5.2. 防御工具:Rebuff AI
5.3. 防御工具:Garak
5.4. 其他相关工具
5.5. LLM 安全工具比较
- 建议与未来展望
- 附录
7.1. 关键术语解释 (Glossary of Key Terms)
7.2. OWASP Top 10 for LLM Applications (2025 版) 完整列表
7.3 参考引用