0 Paper Info

原文地址Federated Optimization In Heterogeneous Networks

录用会议Conference on Machine Learning and Systems, MLSys

录用年份:2020

1 Introduction

机器学习背景下,分布式优化已经有了大量的工作,但是在联邦学习场景下仍有区别于传统分布式优化的挑战,如系统异构性和统计异构性,2017年提出来的FedAvg在不同场景异构的情况下有如下缺陷:

  • 系统异构(System Heterogeneity):联邦学习场景下不同设备的通信和计算能力存在差异。在FedAvg中,被选中的客户端都需要利用自己的私有数据集在本地训练相同的epoch,虽然增加客户端的epoch可以有效减小通信成本,但客户端epoch较大时会导致很多设备无法按时完成训练。无论是直接drop掉这部分的模型还是用这部分未完成训练的模型来聚合,都会对全局模型的收敛产生负面影响
  • 统计异构(Statistical Heterogeneity):不同设备的私有数据可能是非独立同分布(Non-IID)的。在数据独立同分布的情况下,增加客户端的epoch可以加快全局模型的收敛;但是如果不是独立同分布的,不同设备在利用Non-IID的数据进行训练且epoch较大时,可能会出现过拟合的现象导致模型偏离全局模型

基于上述问题,作者基于FedAvg的基础做了部分改进(在客户端训练的loss函数中加入正则项),提出了新的框架FedProx

2 Method

针对系统异构问题:-inexact solution

FedProx允许出现训练不充分的客户端模型,在固定epoch的情况下,不论一个客户端是否完成了本地训练,FedProx都会整合当前通信轮次中所有参与训练的客户端模型,定义解决方案如下:

image-20231225210350365

越小则代表客户端的局部模型训练完成度越高,其中代表客户端目标优化函数,则是函数(与FedAvg中的一致),

算法伪代码:

image-20240123164332546

3 Experiments

4 Conclusion