深度学习中的对抗防御算法研究
万方数据知识服务平台
应用市场
我的应用
会员HOT
万方期刊
×

点击收藏,不怕下次找不到~

@万方数据
会员HOT

期刊专题

10.3969/j.issn.1673-1794.2021.02.003

深度学习中的对抗防御算法研究

引用
深度学习神经网络(DNN)容易受到对抗性示例的攻击,对抗性示例可由无法察觉的干扰产生.目前已经提出了一系列防御技术,以提高DNN对此类示例攻击的鲁棒性,其中对抗训练已被证明是最有效的.对抗训练通常被公式化为最小—最大优化问题,其内在最大化可用于生成对抗示例.但是,存在一个简单但容易被忽略的事实,即对抗性示例仅在正确分类的正常示例中定义,但某些正常示例在训练过程中会被误分类,并且会被忽略.在本文中,研究了被误分类的示例和被正确分类的示例在对抗训练中对DNN模型最终鲁棒性的独特影响.具体来说,发现被误分类示例确实对DNN最终的鲁棒性有重大影响,对误分类的示例,使用不同的最大化技术对DNN最终鲁棒性的影响可以忽略不计,而不同的最小化技术则至关重要.基于以上发现,提出了一种新颖的对抗防御算法(novel adversarial defense algorithm,NADA),该算法可明确区分训练过程中被误分类的示例和被正确分类的示例.实验结果表明,NADA可以显着提高DNN模型的鲁棒性.

深度学习、对抗防御、风险函数、误分类示例、鲁棒性

23

G642(高等教育)

人才培养项目;高层次人才科研启动基金;安徽省教育厅重点项目

2021-07-15(万方平台首次上网日期,不代表论文的发表时间)

共11页

10-20

相关文献
评论
暂无封面信息
查看本期封面目录

滁州学院学报

1673-1794

34-1288/Z

23

2021,23(2)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn