10.19363/J.cnki.cn10-1380/tn.2020.05.02
人工智能对抗环境下的模型鲁棒性研究综述
近年来人工智能研究与应用发展迅速,机器学习模型大量应用在现实的场景中,人工智能模型的安全鲁棒性分析与评估问题已经开始引起人们的关注.最近的研究发现,对于没有经过防御设计的模型,攻击者通过给样本添加微小的人眼不可察觉的扰动,可以轻易的使模型产生误判,从而导致严重的安全性问题,这就是人工智能模型的对抗样本.对抗样本已经成为人工智能安全研究的一个热门领域,各种新的攻击方法,防御方法和模型鲁棒性研究层出不穷,然而至今尚未有一个完备统一的模型鲁棒性的度量评价标准,所以本文总结了现阶段在人工智能对抗环境下的模型鲁棒性研究,论述了当前主流的模型鲁棒性的研究方法,从一个比较全面的视角探讨了对抗环境下的模型鲁棒性这一研究方向的进展,并且提出了一些未来的研究方向.
对抗样本、模型鲁棒性、人工智能安全
5
TP393.08(计算技术、计算机技术)
本课题得到重点研发计划No.2017YFB0802900
2020-07-23(万方平台首次上网日期,不代表论文的发表时间)
共10页
13-22