一种提高联邦学习模型鲁棒性的训练方法
联邦学习方法打破了数据壁垒的瓶颈,已被应用到金融、医疗辅助诊断等领域.但基于对抗样本发起的对抗攻击,给联邦学习模型的安全带来了极大的威胁.基于对抗训练提高模型鲁棒性是保证模型安全性的一个较好解决办法,但目前对抗训练方法主要针对集中式机器学习,并通常只能防御特定的对抗攻击.为此,提出了一种联邦学习场景下,增强模型鲁棒性的对抗训练方法.该方法通过分别加入单强度对抗样本、迭代对抗样本以及正常样本进行训练,并通过调整各训练样本下损失函数的权重,完成了本地训练以及全局模型的更新.在Mnist以及Fashion_Mnist数据集上开展实验,实验结果表明该对抗训练方式极大地增强了联邦模型在不同攻击场景下的鲁棒性,该对抗训练基于FGSM以及PGD展开,且对FFGSM,PGDDLR和BIM等其他攻击方法同样有效.
联邦学习、对抗攻击、鲁棒性、对抗训练
49
TP309(计算技术、计算机技术)
2022-06-22(万方平台首次上网日期,不代表论文的发表时间)
共6页
496-501