論文の概要: FedLGA: Towards System-Heterogeneity of Federated Learning via Local
Gradient Approximation
- arxiv url: http://arxiv.org/abs/2112.11989v1
- Date: Wed, 22 Dec 2021 16:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:35:35.585835
- Title: FedLGA: Towards System-Heterogeneity of Federated Learning via Local
Gradient Approximation
- Title(参考訳): fedlga:局所勾配近似によるフェデレーション学習のシステムヘテロゲニティに向けて
- Authors: Xingyu Li, Zhe Qu, Bo Tang and Zhuo Lu
- Abstract要約: システム不均一なFL問題を定式化してFedLGAと呼ばれる新しいアルゴリズムを提案する。
複数のデータセットに対する総合的な実験の結果、FedLGAはシステム不均一性に対して現在のFLベンチマークよりも優れていた。
- 参考スコア(独自算出の注目度): 21.63719641718363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a decentralized machine learning architecture,
which leverages a large number of remote devices to learn a joint model with
distributed training data. However, the system-heterogeneity is one major
challenge in a FL network to achieve robust distributed learning performance,
which is of two aspects: i) device-heterogeneity due to the diverse
computational capacity among devices; ii) data-heterogeneity due to the
non-identically distributed data across the network. Though there have been
benchmarks against the heterogeneous FL, e.g., FedProx, the prior studies lack
formalization and it remains an open problem. In this work, we formalize the
system-heterogeneous FL problem and propose a new algorithm, called FedLGA,
which addresses this problem by bridging the divergence of local model updates
via gradient approximation. To achieve this, FedLGA provides an alternated
Hessian estimation method, which only requires extra linear complexity on the
aggregator. Theoretically, we show that with a device-heterogeneous ratio
$\rho$, FedLGA achieves convergence rates on non-i.i.d distributed FL training
data against non-convex optimization problems for $\mathcal{O} \left(
\frac{(1+\rho)}{\sqrt{ENT}} + \frac{1}{T} \right)$ and $\mathcal{O} \left(
\frac{(1+\rho)\sqrt{E}}{\sqrt{TK}} + \frac{1}{T} \right)$ for full and partial
device participation respectively, where $E$ is the number of local learning
epoch, $T$ is the number of total communication round, $N$ is the total device
number and $K$ is the number of selected device in one communication round
under partially participation scheme. The results of comprehensive experiments
on multiple datasets show that FedLGA outperforms current FL benchmarks against
the system-heterogeneity.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、分散トレーニングデータとの共同モデルを学ぶために、多数のリモートデバイスを活用する分散機械学習アーキテクチャである。
しかし、システム不均一性は、FLネットワークにおいて、堅牢な分散学習性能を達成するための大きな課題の1つである。
一 装置間の計算能力の多様性による装置異質性
二 ネットワークにまたがる不特定分散データによるデータ不均一性
異種FL(例えば、FedProx)に対するベンチマークがあるが、以前の研究では形式化が欠けており、未解決の問題である。
本研究では,システム不均一なFL問題を形式化し,勾配近似を用いて局所モデル更新の分岐をブリッジすることでこの問題に対処するFedLGAというアルゴリズムを提案する。
これを実現するためにFedLGAは、アグリゲータに余分な線形複雑性を必要とするヘッセン推定法を提供する。
Theoretically, we show that with a device-heterogeneous ratio $\rho$, FedLGA achieves convergence rates on non-i.i.d distributed FL training data against non-convex optimization problems for $\mathcal{O} \left( \frac{(1+\rho)}{\sqrt{ENT}} + \frac{1}{T} \right)$ and $\mathcal{O} \left( \frac{(1+\rho)\sqrt{E}}{\sqrt{TK}} + \frac{1}{T} \right)$ for full and partial device participation respectively, where $E$ is the number of local learning epoch, $T$ is the number of total communication round, $N$ is the total device number and $K$ is the number of selected device in one communication round under partially participation scheme.
複数のデータセットに対する総合的な実験の結果、FedLGAはシステム不均一性に対して現在のFLベンチマークよりも優れていた。
関連論文リスト
- A Framework for testing Federated Learning algorithms using an edge-like environment [0.0]
フェデレーテッド・ラーニング(FL)は、多くのクライアントが、データをプライベートかつ分散化しながら、単一の集中型モデルを協調的にトレーニングする機械学習パラダイムである。
グローバル集中型モデルアグリゲーションにおける局所モデルの貢献を正確に評価するのは簡単ではない。
これはFLにおける大きな挑戦の例であり、一般にデータ不均衡またはクラス不均衡として知られている。
本研究では,FLアルゴリズムをより容易かつスケーラブルに評価するためのフレームワークを提案し,実装した。
論文 参考訳(メタデータ) (2024-07-17T19:52:53Z) - FedLPS: Heterogeneous Federated Learning for Multiple Tasks with Local
Parameter Sharing [14.938531944702193]
局所異種共有を用いたフェデレーション学習(FedLPS)を提案する。
FedLPSは転送学習を使用して、ローカルモデルを共有エンコーダとタスク固有のエンコーダに分割することで、複数のタスクをひとつのデバイスにデプロイする。
FedLPSは最先端(SOTA)のFLフレームワークを最大4.88%上回り、計算資源消費量を21.3%減らす。
論文 参考訳(メタデータ) (2024-02-13T16:30:30Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning [52.83811558753284]
分散学習(DFL)は、中央サーバーを捨て、分散通信ネットワークを確立する。
既存のDFL手法は依然として、局所的な矛盾と局所的な過度なオーバーフィッティングという2つの大きな課題に悩まされている。
論文 参考訳(メタデータ) (2023-08-16T11:22:36Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - Heterogeneous Federated Learning on a Graph [9.135254524746847]
ローカルデータを共有せずに複数の分散デバイスでアルゴリズムをトレーニングするフェデレーション学習は、機械学習の実践でますます人気を集めている。
本研究では,データ分散と通信の不均一性を伴うフェデレート学習繰り返しにおけるパラメータ推定と,ローカル機器の計算能力の制限について考察する。
我々のアルゴリズムは収束率$O(T-1log T)$で$G$のエッジに沿ってパラメータのみを送信する。
論文 参考訳(メタデータ) (2022-09-19T03:18:10Z) - NET-FLEET: Achieving Linear Convergence Speedup for Fully Decentralized
Federated Learning with Heterogeneous Data [12.701031075169887]
フェデレーテッド・ラーニング(FL)は、データプライバシ保護、効率的な通信、並列データ処理といったメリットにより、近年、注目を集めている。
FLの既存の作業の多くは、データと集中型パラメータサーバを持つシステムに限られている。
我々は、データ不均一性を持つ完全分散FLシステムのための新しいアルゴリズム、NET-FLEETを提案する。
論文 参考訳(メタデータ) (2022-08-17T19:17:23Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。