当前位置:网站首页>协作D2D局部模型聚合的半分散联合学习
协作D2D局部模型聚合的半分散联合学习
2022-08-05 02:14:00 【物腐虫生】
摘要
提出了双时间尺度混合联邦学习(TT-HF),这是一种半分散式学习体系结构,将用于联邦学习的传统设备到服务器通信范式与用于模型训练的设备到设备(D2D)通信相结合。
每个全局聚合间隔期间,设备
(i)在其单个数据集上执行多多次随机梯度下降迭代,
(ii)通过本地集群内的协作分布式D2D通信,不定期地参与其模型参数的协商过程。
开发了一种自适应控制算法,该算法可以随时间调整TT-HF的步长、D2D通信轮数和全局聚合周期,以达到O(1/t)的次线性收敛速度,同时最小化网络资源利用率。
传统联邦学习
在每次迭代中,每个设备基于其自己的数据集训练局部模型,通常使用(随机)梯度下降。然后,设备将其本地模型上载到服务器,服务器通常使用加权平均值将其聚合为全局模型,并将设备与此新模型同步,以启动下一轮本地训练。
为了降低上行链路和下行链路传输的成本,提出了局部模型训练与周期性但不频繁的全局聚合相结合。
然而,局部数据集可能在其统计分布中表现出显著的异质性,导致学习模型可能偏向于局部数据集,因此降低了全局模型的准确性.
TT_HF
(i)涉及设备到设备和设备到服务器通信之间的混合
(ii)包含两个用于模型训练的时间尺度:单个设备上的随机梯度下降迭代和集群内的多轮协作D2D通信。
在全局聚合期间,集群中只有一个设备需要将集群模型上传到服务器,
具体来说,在联邦学习的本地更新间隔期间,设备可以系统地与其附近的其他设备共享其模型参数,以在每个边缘设备集群之间形成分布式共识。
在每个本地训练间隔结束时,假设每个设备的模型现在反映了其集群的一致性,则主服务器可以从每个集群中随机抽取一个设备进行全局聚合。
量化设备级随机梯度更新、集群级共识过程和网络级全局聚合之间的关系。并使用它们来调整每个本地更新和共识周期的长度。
结果:联邦学习的一个版本,它优化了全局模型收敛特性,同时最小化了系统中的上行链路通信需求。
推荐文献:全面了解联邦学习
[28] S. Abdulrahman, H. Tout, H. Ould-Slimane, A. Mourad, C. Talhi, and
M. Guizani, “A survey on federated learning: The journey from central-
ized to distributed on-site learning and beyond,” IEEE Internet Things
J., vol. 8, no. 7, pp. 5476–5497, Apr. 2021.
[29] T. Li, A. K. Sahu, A. Talwalkar, and V . Smith, “Federated learning:
Challenges, methods, and future directions,” IEEE Signal Process. Mag.,
vol. 37, no. 3, pp. 50–60, May 2020.
就无线通信效率而言,有几项工作研究了在连续全局聚合之间执行多轮局部梯度更新的影响,包括根据总资源预算优化聚合周期。
为了进一步减少对全局聚合的需求,[31]提出了一种用于联邦学习的分层系统模型,其中边缘服务器用于部分全局聚合。
[31] L. Liu, J. Zhang, S. Song, and K. B. Letaief, “Client-edge-cloud hierarchical federated learning,” in Proc. IEEE Int. Conf. Commun.
(ICC), vol. 2020, pp. 1–6.
还提出了模型量化[]和稀疏化技术。
本文提出了一种半分散架构,其中D2D通信用于与全局聚合一起在节点之间交换模型参数。
针对数据异构性,[34]中,作者建议将局部数据集的一部分上传到服务器,然后用于增强全局模型训练。
[34] N. Y oshida, T. Nishio, M. Morikura, K. Y amamoto, and R. Y onetani,
“Hybrid-FL for wireless networks: Cooperative learning mechanism
using non-IID data,” in Proc. IEEE Int. Conf. Commun. (ICC), Jun. 2020,
pp. 1–7.
本文利用D2D通信在设备之间交换模型参数,这缓解了此类担忧。
将设备间的分布式协作学习引入到局部更新过程中,形成了一种具有D2D增强学习的新型系统架构。
可同时解决通信效率和数据异构性挑战。
在这种情况下
(i)设备可能在全局聚合之间进行多次(随机)梯度迭代,
(ii)全局聚合是非周期的,
(iii)设备之间的共识过程可能在每个全局聚合期间不周期地发生。
由于设备的移动性,每个集群的拓扑结构(即节点数量及其在集群内的位置)可能会随着时间而变化,尽管我们假设与两个全局聚合之间的时间相比,这种演变是缓慢的。
对梯度上界使用了三角形不等式。。。平滑度条件
TT-HF:双时间尺度混合联邦学习
1)概述和基本原理:由非周期全局聚合之间的一系列局部模型训练间隔组成。在每个间隔期间,设备进行局部随机梯度下降(SGD)迭代,并通过集群内的局部一致性过程非周期地同步其模型参数。
后面还在看,公式太多了。。。。。
边栏推荐
- 【MySQL series】- Does LIKE query start with % will make the index invalid?
- How to deal with your own shame
- J9数字货币论:web3的创作者经济是什么?
- How do programmers without objects spend the Chinese Valentine's Day
- 如何创建rpm包
- 编译预处理等细节
- 如何逐步执行数据风险评估
- 迅睿cms网站搬迁换了服务器后网站不能正常显示
- Greenplum数据库故障分析——能对数据库base文件夹进行软连接嘛?
- 使用OpenVINO实现飞桨版PGNet推理程序
猜你喜欢
海量服务实例动态化管理
蚁剑高级模块开发
LPQ (local phase quantization) study notes
[Word] #() error occurs after Word formula is exported to PDF
Chapter 09 Use of Performance Analysis Tools [2. Index and Tuning] [MySQL Advanced]
Flink 1.15.1 集群搭建(StandaloneSession)
一文看懂推荐系统:召回06:双塔模型——模型结构、训练方法,召回模型是后期融合特征,排序模型是前期融合特征
如何逐步执行数据风险评估
树表的查找
学习笔记-----左偏树
随机推荐
Residential water problems
Live preview | 30 minutes started quickly!Look at credible distributed AI chain oar architectural design
CMS website construction process
学习笔记-----左偏树
.Net C# Console Create a window using Win32 API
SuperMap iDesktop.Net之布尔运算求交——修复含拓扑错误复杂模型
Understand the recommendation system in one article: Recall 06: Two-tower model - model structure, training method, the recall model is a late fusion feature, and the sorting model is an early fusion
为什么他们选择和AI恋爱?
1349. Maximum number of students taking the exam Status Compression
2022了你还不会『低代码』?数据科学也能玩转Low-Code啦!
hypervisor相关的知识点
Leetcode刷题——22. 括号生成
多线程(2)
开篇-开启全新的.NET现代应用开发体验
【日常训练】1403. 非递增顺序的最小子序列
迁移学习——Distant Domain Transfer Learning
Transfer Learning - Joint Geometrical and Statistical Alignment for Visual Domain Adaptation
<开发>实用工具
Greenplum数据库故障分析——能对数据库base文件夹进行软连接嘛?
居民用水问题