10.3778/j.issn.1002-8331.2108-0147
基于深度神经网络的对抗样本技术综述
深度学习在完成一些难度极高的任务中展现了惊人的能力,但深度神经网络难以避免对刻意添加了扰动的样本(称为"对抗样本")进行错误的分类."对抗样本"逐渐成为深度学习安全领域的研究热点.研究对抗样本产生的原因和作用机理,有助于从安全性和鲁棒性方面优化模型.在掌握对抗样本原理的基础上,对经典对抗样本攻击方法进行分类总结,根据不同的攻击原理将攻击方法分为白盒攻击与黑盒攻击两个大类,并引入非特定目标攻击、特定目标攻击、全像素添加扰动攻击和部分像素添加扰动攻击等细类.在ImageNet数据集上对几种典型攻击方法进行复现,通过实验结果,比较几种生成方法的优缺点,分析对抗样本生成过程中的突出问题.并对对抗样本的应用和发展作了展望.
深度神经网络;对抗样本;白盒攻击;黑盒攻击;鲁棒性
57
TP183(自动化基础理论)
2021-12-13(万方平台首次上网日期,不代表论文的发表时间)
共10页
61-70