计算和通信资源受限的联邦学习模型压缩和优化方法研究

来源 :北京邮电大学 | 被引量 : 0次 | 上传用户:ourui4108432566
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
联邦学习是一种新兴的分布式学习方法,它通过让用户在本地训练模型并在服务器端完成聚合,从而在管理大规模数据的同时保证了用户数据的隐私性。将联邦学习部署在一些无线通信场景中,既可以利用客户端设备的计算和存储能力,又可以在服务器端对整体的聚合与调度提供支持。然而,无线通信场景往往存在设备电量不足、网络带宽受限等问题,这些问题使得联邦学习训练所需的计算和通信资源受到约束,进而影响联邦学习的性能。深度学习模型压缩方法可以有效解决模型训练过程中的资源不足问题,这些方法在减小模型资源消耗的同时保持模型的性能。本文将联邦学习与深度学习模型压缩中的几种常见方法相结合,保证了在资源受限的情况下联邦学习依然能保持优秀的训练效果。主要工作可总结如下:一,本文对基于模型稀疏化的联邦学习模型压缩及优化方法进行了研究。联邦学习训练过程中计算和通信资源往往是受限的,为了保证联邦学习的训练精度不受到影响,首先,本文提出了联邦学习与模型稀疏化相结合的方案并完成建模。该方案对各个客户端本地训练的模型进行稀疏化,从而节约了传输所占用的资源。其次,对联邦学习模型精度损失上界进行了分析,将精度损失分为了通信损失、样本选择损失与训练损失。对三个损失逐个分析,并结合约束条件提出优化问题。最后,通过将优化问题分解为压缩矩阵优化、样本选择优化以及用户调度优化三个子问题并求解,设计出可以折中联邦学习模型精度与开销的联合优化算法。通过仿真分析,验证了所提出联合优化算法相较于未经优化的联邦学习,具有更好的性能表现以及更少的开销。二,本文对基于知识蒸馏的联邦学习模型压缩及优化方法进行了研究。除了计算与通信资源受限条件之外,联邦学习还存在边缘设备不足以部署复杂模型的缺陷,为了解决这一问题,首先,对知识蒸馏的一种延申方法——深度互学习的方法进行深入研究,并将该方法与联邦学习进行结合,提出基于知识蒸馏的联邦学习模型压缩方案。该方案将教师网络的知识迁移到小规模的学生模型中,在节约了计算通信资源的同时保证了边缘设备能有效地部署模型。其次,对联邦学习模型精度损失上界进行了分析,将精度损失分为了通信损失、知识蒸馏损失,逐个分析后提出优化问题。最后,将优化问题分解为知识蒸馏优化、样本选择优化以及用户调度优化三个子问题并分别求解,设计出基于知识蒸馏的联邦学习联合优化算法。仿真结果证明了在不同的压缩比例下经联合算法优化后的联邦学习相较于未经优化的联邦学习具有更好的性能。
其他文献
本文构建了人左脑乳腺癌扩增序列(BCAS1)反馈/上/下游激活和抑制的分子及知识网络,其与认知密切相关。本文通过整合GRNInfer和DAVID,基于BCAS1反馈/上/下游激活和抑制不同分子的共同知识,提出BCAS1调控人左脑认知的新系统机制并完成的多重亚网验证如下:整合BCAS1上游激活、下游激活癌症通路,本文提出并验证BCAS1的癌症通路诱导人左脑认知,通过其上游激活内分泌和中枢神经系统|细
在计算机信息技术和集成电路技术快速发展的浪潮中,越来越多的大链接物联网络、功能逐渐趋于专一细分的高性能处理器以及计算需求愈加复杂的大型计算平台,无一不在推动着计算系统的异构化趋势。在当下大数据时代的信息社会中,随时随地获取信息和计算资源已经成为社会大众普遍的基本生活需求,可以预见的是,在当今的计算系统中,系统需要计算处理的任务量正呈现爆炸式的增长。而与之相应的,将是对电力能源的巨大需求,越来越多的
数学作业是课堂教学的延续,是教师的教与学生的学之间的信息通道.它能帮助学生巩固知识和自我检验,及时查缺补漏,也能帮助教师发现学生在学习中存在的问题,及时进行教学调整.教师可以从趣味性、层次性、多样性、归纳整理、记录错题等方面优化小学数学作业的设计,以巩固学生的基础知识和基本技能,提升学生的数学能力.