論文の概要: NET-FLEET: Achieving Linear Convergence Speedup for Fully Decentralized
Federated Learning with Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2208.08490v1
- Date: Wed, 17 Aug 2022 19:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:51:48.328986
- Title: NET-FLEET: Achieving Linear Convergence Speedup for Fully Decentralized
Federated Learning with Heterogeneous Data
- Title(参考訳): NET-FLEET:不均一データによる完全分散フェデレーション学習のための線形収束高速化を実現する
- Authors: Xin Zhang, Minghong Fang, Zhuqing Liu, Haibo Yang, Jia Liu, Zhengyuan
Zhu
- Abstract要約: フェデレーテッド・ラーニング(FL)は、データプライバシ保護、効率的な通信、並列データ処理といったメリットにより、近年、注目を集めている。
FLの既存の作業の多くは、データと集中型パラメータサーバを持つシステムに限られている。
我々は、データ不均一性を持つ完全分散FLシステムのための新しいアルゴリズム、NET-FLEETを提案する。
- 参考スコア(独自算出の注目度): 12.701031075169887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has received a surge of interest in recent years
thanks to its benefits in data privacy protection, efficient communication, and
parallel data processing. Also, with appropriate algorithmic designs, one could
achieve the desirable linear speedup for convergence effect in FL. However,
most existing works on FL are limited to systems with i.i.d. data and
centralized parameter servers and results on decentralized FL with
heterogeneous datasets remains limited. Moreover, whether or not the linear
speedup for convergence is achievable under fully decentralized FL with data
heterogeneity remains an open question. In this paper, we address these
challenges by proposing a new algorithm, called NET-FLEET, for fully
decentralized FL systems with data heterogeneity. The key idea of our algorithm
is to enhance the local update scheme in FL (originally intended for
communication efficiency) by incorporating a recursive gradient correction
technique to handle heterogeneous datasets. We show that, under appropriate
parameter settings, the proposed NET-FLEET algorithm achieves a linear speedup
for convergence. We further conduct extensive numerical experiments to evaluate
the performance of the proposed NET-FLEET algorithm and verify our theoretical
findings.
- Abstract(参考訳): フェデレーション学習(fl)は、データプライバシ保護、効率的な通信、並列データ処理のメリットにより、近年で注目を集めている。
また,適切なアルゴリズム設計を行うことで,flにおける収束効果の線形高速化が期待できる。
しかし、FLに関する既存の研究のほとんどは、データと集中型パラメータサーバを持つシステムに限られており、不均一なデータセットを持つ分散FLの結果は依然として限られている。
さらに、データ不均一性を持つ完全分散化FLの下で収束の線形スピードアップが達成可能であるか否かは、未解決の問題である。
本稿では,データ不均一性を持つ完全分散FLシステムのための新しいアルゴリズムであるNET-FLEETを提案する。
本アルゴリズムの重要な考え方は,不均一なデータセットを扱うために再帰的勾配補正手法を組み込むことにより,fl(通信効率を意図した)の局所更新スキームを強化することである。
適切なパラメータ設定下では,提案手法が収束の線形高速化を実現することを示す。
さらに,提案したNET-FLEETアルゴリズムの性能評価や理論的結果の検証のために,広範な数値実験を行った。
関連論文リスト
- FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Why Batch Normalization Damage Federated Learning on Non-IID Data? [34.06900591666005]
フェデレートラーニング(FL)では、エッジクライアントのプライバシを保護しながら、ネットワークエッジでディープニューラルネットワーク(DNN)モデルをトレーニングする。
バッチ正規化(BN)は、訓練を加速し、能力一般化を改善するためのシンプルで効果的な手段とみなされてきた。
最近の研究では、BNは非i.d.データの存在下でFLの性能を著しく損なうことが示されている。
非i.d.データの下で、BNの局所的および大域的統計パラメータ間のミスマッチが局所的および大域的モデル間の勾配ずれを引き起こすことを示す最初の収束解析を提示する。
論文 参考訳(メタデータ) (2023-01-08T05:24:12Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Time-triggered Federated Learning over Wireless Networks [48.389824560183776]
無線ネットワーク上での時系列FLアルゴリズム(TT-Fed)を提案する。
提案したTT-Fedアルゴリズムは, それぞれ最大12.5%, 5%の収束試験精度を向上する。
論文 参考訳(メタデータ) (2022-04-26T16:37:29Z) - Over-the-Air Federated Learning via Second-Order Optimization [37.594140209854906]
フェデレートラーニング(FL)は、無線ネットワーク上でのタスク指向のデータトラフィックを、限られた無線リソースによって引き起こす可能性がある。
本稿では,通信ラウンドを同時に削減し,低レイテンシなグローバルモデルアグリゲーションを実現するために,空対2次フェデレーション最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T12:39:23Z) - Communication-Efficient Stochastic Zeroth-Order Optimization for
Federated Learning [28.65635956111857]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを共有せずに、グローバルモデルを協調的にトレーニングすることを可能にする。
FLの訓練効率を向上させるため,一階計算から一階法まで,様々なアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2022-01-24T08:56:06Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Joint Optimization of Communications and Federated Learning Over the Air [32.14738452396869]
Federated Learning(FL)は、データプライバシーを保護しながら、リッチな分散データを利用するための魅力的なパラダイムです。
本稿では,リアル無線ネットワークにおけるアナログアグリゲーション伝送に基づく通信とFLの協調最適化について検討する。
論文 参考訳(メタデータ) (2021-04-08T03:38:31Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。