对抗样本(adversarial example)为深度学习应用带来了巨大的安全隐患,其中基于迁移的攻击(transfer-based attack)利用在替代模型上生成的对抗样本直接攻击目标模型,不需要接触目标模型,容易在现实场景中进行部署,引发了广泛的关注。
本议题将聚焦于图像识别领域中基于迁移的攻击,从动量、输入变换、目标函数和替代模型四个方面概述目前的研究进展、详细介绍我们近期提出的一系列提升对抗攻击迁移性的攻击方法(如Variance Tuning、Admix等)、并在常用的深度学习模型上(如ResNet、ViT等)进行测试,最后利用其生成的对抗样本在国内外相关API接口上验证所提出方法的有效性。