10.3969/j.issn.1671-1122.2021.03.008
面向用户的支持用户掉线的联邦学习数据隐私保护方法
联邦学习是解决多组织协同训练问题的一种有效手段,但是现有的联邦学习存在不支持用户掉线、模型API泄露敏感信息等问题.文章提出一种面向用户的支持用户掉线的联邦学习数据隐私保护方法,可以在用户掉线和保护的模型参数下训练出一个差分隐私扰动模型.该方法利用联邦学习框架设计了基于深度学习的数据隐私保护模型,主要包含两个执行协议:服务器和用户执行协议.用户在本地训练一个深度模型,在本地模型参数上添加差分隐私扰动,在聚合的参数上添加掉线用户的噪声和,使得联邦学习过程满足(ε,δ)-差分隐私.实验表明,当用户数为50、ε=1时,可以在模型隐私性与可用性之间达到平衡.
联邦学习、深度学习、隐私保护、差分隐私、用户掉线
TP309(计算技术、计算机技术)
国家重点研发计划[2017YFB0801901
2021-05-11(万方平台首次上网日期,不代表论文的发表时间)
共8页
64-71