Recent Progresses in Transfer-based Attack for Image Recognition
对抗样本(adversarial example)为深度学习应用带来了巨大的安全隐患,其中基于迁移的攻击(transfer-based attac 2023-10-16 22:27:57 Author: vipread.com(查看原文) 阅读量:1 收藏

对抗样本(adversarial example)为深度学习应用带来了巨大的安全隐患,其中基于迁移的攻击(transfer-based attack)利用在替代模型上生成的对抗样本直接攻击目标模型,不需要接触目标模型,容易在现实场景中进行部署,引发了广泛的关注。

本议题将聚焦于图像识别领域中基于迁移的攻击,从动量、输入变换、目标函数和替代模型四个方面概述目前的研究进展、详细介绍我们近期提出的一系列提升对抗攻击迁移性的攻击方法(如Variance Tuning、Admix等)、并在常用的深度学习模型上(如ResNet、ViT等)进行测试,最后利用其生成的对抗样本在国内外相关API接口上验证所提出方法的有效性。


文章来源: https://vipread.com/library/topic/3968
如有侵权请联系:admin#unsafe.sh