10.16337/j.1004-9037.2019.03.006
基于迁移学习的敏感数据隐私保护方法
机器学习涉及一些隐含的敏感数据,当受到模型查询或模型检验等模型攻击时,可能会泄露用户隐私信息.针对上述问题,本文提出一种敏感数据隐私保护“师徒”模型PATE-T,为机器学习模型的训练数据提供强健的隐私保证.该方法以“黑盒”方式组合了由不相交敏感数据集训练得到的多个“师父”模型,这些模型直接依赖于敏感训练数据.“徒弟”由“师父”集合迁移学习得到,不能直接访问“师父”或基础参数,“徒弟”所在数据域与敏感训练数据域不同但相关.在差分隐私方面,攻击者可以查询“徒弟”,也可以检查其内部工作,但无法获取训练数据的隐私信息.实验表明,在数据集MNIST和SVHN上,本文提出的隐私保护模型达到了隐私/实用准确性的权衡,性能优越.
差分隐私、迁移学习、模型攻击、敏感数据、隐私保护
34
TP309.2(计算技术、计算机技术)
国家自然科学基金重大研究计划91746116;贵州省重大应用基础研究黔科合JZ字[2014]2001;贵州省科技重大专项计划黔科合重大专项字[2017]3002
2019-08-06(万方平台首次上网日期,不代表论文的发表时间)
共10页
422-431