面向分层联邦学习的传输优化研究
与传统机器学习相比,联邦学习有效解决了用户数据隐私和安全保护等问题,但是海量节点与云服务器间进行大量模型交换,会产生较高的通信成本,因此基于云-边-端的分层联邦学习受到了越来越多的重视.在分层联邦学习中,移动节点之间可采用D2D、机会通信等方式进行模型协作训练,边缘服务器执行局部模型聚合,云服务器执行全局模型聚合.为了提升模型的收敛速率,研究人员对面向分层联邦学习的网络传输优化技术展开了研究.文中介绍了分层联邦学习的概念及算法原理,总结了引起网络通信开销的关键挑战,归纳分析了选择合适节点、增强本地计算、减少本地模型更新上传数、压缩模型更新、分散训练和面向参数聚合传输这6种网络传输优化方法.最后,总结并探讨了未来的研究方向.
分层联邦学习、传输优化、通信开销、节点选择、模型压缩
49
TP393(计算技术、计算机技术)
国家自然科学基金;北京市青年拔尖人才项目
2022-12-29(万方平台首次上网日期,不代表论文的发表时间)
共12页
5-16