《安全领域大模型构建范式与实践》由腾讯安全科恩实验室吴石主讲,提出“高质量语料 + 科学评测”双轮驱动范式:自建SecCorpus对20 B token清洗去噪,使160 M小模型即达通用1.8 B效果;发布SecBench平台,5万道题覆盖证书、问答与攻防场景,为行业首套安全大模型评测基线。实践上,以混元+BinaryAI亿级函数向量RAG为核心,打造Security-X研判助手,输入IOC即可自动生成多智能体协同的综合报告,日调用破亿。报告总结:大模型落地需“数据-评测-场景”闭环,科恩已把AI能力嵌入腾讯云、iOA、电脑管家全线产品,实现精准威胁识别与智能运营。
自 2018 年起,科恩实验室开始对 AI+ 安全的研究,致力探索如何提升安全产品的智能化水平,落地相关产品,腾讯内部包含 QQ、微信在内的多个重要产品均在使用科恩实验室 AI+ 安全的能力。
当前在利用大模型解决实际安全问题上仍面临一些挑战,主要原因在于大模型本身并不产生新的知识,对于安全领域的专业知识掌握有限,导致其输出的实际效用不高。对此,吴石分享了科恩实验室在这方面所开展的工作:一是建立安全语料库,通过从多源收集数据并利用关键词过滤和分列器进行初步筛选,经过一系列数据清洗步骤,最终完成数据质量评测,目前此安全语料已部分开源。二是开发针对大模型安全能力的评测体系,填补行业空白,并部分开源评测工具,显著提升行业标准。
吴石介绍腾讯内部如何落地大模型+安全:首先通过优化 prompt 提高提问质量,解决大部分基础问题;其次,利用外挂的知识库和数据库增强大模型的能力,实现快速反应;还有,开发 Agent 来提升处理复杂任务的能力。其中,科恩实验室自研 BinaryAI 可以模糊匹配开源库信息识别恶意代码,现日调用量超 1 亿次。基于RAG的 Security-X 助手广泛应用于 URL 处理、威胁情报检索等场景。总的来说,科恩实验室具备三大核心能力:优秀的安全攻防技术、全面的基础安全大数据以及自安全算法,这些为大模型的应用提供坚实基础,并推动通用大模型与小模型的有效结合。
吴石指出,大模型作为网络安全领域的重要技术力量,已显著提升了威胁检测效率与安全防护能力,尤其在复杂场景中展现出独特价值。然而,当前技术范式下仍需理性看待其局限性:大模型在处理低频威胁、对抗性样本防御及实时决策场景中仍存在性能瓶颈。他强调,安全工作的核心仍需回归对抗本质——通过构建高保真威胁情报体系与攻击成本动态评估机制,迫使攻击者在技术、资源与时间维度付出更高代价。