论文部分内容阅读
联邦学习是一种新兴的分布式学习方法,它通过让用户在本地训练模型并在服务器端完成聚合,从而在管理大规模数据的同时保证了用户数据的隐私性。将联邦学习部署在一些无线通信场景中,既可以利用客户端设备的计算和存储能力,又可以在服务器端对整体的聚合与调度提供支持。然而,无线通信场景往往存在设备电量不足、网络带宽受限等问题,这些问题使得联邦学习训练所需的计算和通信资源受到约束,进而影响联邦学习的性能。深度学习模型压缩方法可以有效解决模型训练过程中的资源不足问题,这些方法在减小模型资源消耗的同时保持模型的性能。本文将联邦学习与深度学习模型压缩中的几种常见方法相结合,保证了在资源受限的情况下联邦学习依然能保持优秀的训练效果。主要工作可总结如下:一,本文对基于模型稀疏化的联邦学习模型压缩及优化方法进行了研究。联邦学习训练过程中计算和通信资源往往是受限的,为了保证联邦学习的训练精度不受到影响,首先,本文提出了联邦学习与模型稀疏化相结合的方案并完成建模。该方案对各个客户端本地训练的模型进行稀疏化,从而节约了传输所占用的资源。其次,对联邦学习模型精度损失上界进行了分析,将精度损失分为了通信损失、样本选择损失与训练损失。对三个损失逐个分析,并结合约束条件提出优化问题。最后,通过将优化问题分解为压缩矩阵优化、样本选择优化以及用户调度优化三个子问题并求解,设计出可以折中联邦学习模型精度与开销的联合优化算法。通过仿真分析,验证了所提出联合优化算法相较于未经优化的联邦学习,具有更好的性能表现以及更少的开销。二,本文对基于知识蒸馏的联邦学习模型压缩及优化方法进行了研究。除了计算与通信资源受限条件之外,联邦学习还存在边缘设备不足以部署复杂模型的缺陷,为了解决这一问题,首先,对知识蒸馏的一种延申方法——深度互学习的方法进行深入研究,并将该方法与联邦学习进行结合,提出基于知识蒸馏的联邦学习模型压缩方案。该方案将教师网络的知识迁移到小规模的学生模型中,在节约了计算通信资源的同时保证了边缘设备能有效地部署模型。其次,对联邦学习模型精度损失上界进行了分析,将精度损失分为了通信损失、知识蒸馏损失,逐个分析后提出优化问题。最后,将优化问题分解为知识蒸馏优化、样本选择优化以及用户调度优化三个子问题并分别求解,设计出基于知识蒸馏的联邦学习联合优化算法。仿真结果证明了在不同的压缩比例下经联合算法优化后的联邦学习相较于未经优化的联邦学习具有更好的性能。