論文の概要: Adaptive Control of Client Selection and Gradient Compression for
Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2212.09483v1
- Date: Mon, 19 Dec 2022 14:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:52:59.195050
- Title: Adaptive Control of Client Selection and Gradient Compression for
Efficient Federated Learning
- Title(参考訳): 効率的なフェデレーション学習のためのクライアント選択と勾配圧縮の適応制御
- Authors: Zhida Jiang, Yang Xu, Hongli Xu, Zhiyuan Wang, Chen Qian
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに協調的にモデルを訓練することを可能にする。
我々はFedCGと呼ばれる不均一なFLフレームワークを提案し、適応的なクライアント選択と勾配圧縮を行う。
実世界のプロトタイプとシミュレーションの両方の実験により、FedCGは他の方法と比較して最大5.3$times$ Speedupを提供できることが示された。
- 参考スコア(独自算出の注目度): 28.185096784982544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows multiple clients cooperatively train models
without disclosing local data. However, the existing works fail to address all
these practical concerns in FL: limited communication resources, dynamic
network conditions and heterogeneous client properties, which slow down the
convergence of FL. To tackle the above challenges, we propose a
heterogeneity-aware FL framework, called FedCG, with adaptive client selection
and gradient compression. Specifically, the parameter server (PS) selects a
representative client subset considering statistical heterogeneity and sends
the global model to them. After local training, these selected clients upload
compressed model updates matching their capabilities to the PS for aggregation,
which significantly alleviates the communication load and mitigates the
straggler effect. We theoretically analyze the impact of both client selection
and gradient compression on convergence performance. Guided by the derived
convergence rate, we develop an iteration-based algorithm to jointly optimize
client selection and compression ratio decision using submodular maximization
and linear programming. Extensive experiments on both real-world prototypes and
simulations show that FedCG can provide up to 5.3$\times$ speedup compared to
other methods.
- Abstract(参考訳): フェデレーション学習(fl)は、複数のクライアントがローカルデータを開示することなく協調的にモデルを訓練することを可能にする。
しかし、既存の作業は、FLにおけるこれらの実践的な懸念に対処することができない。通信リソースの制限、動的ネットワーク条件、およびFLの収束を遅くする不均一なクライアント特性である。
上記の課題に取り組むために,feedcg と呼ばれる異種対応 fl フレームワークを提案し,クライアント選択と勾配圧縮を適応的に行う。
具体的には、パラメータサーバ(PS)が統計的不均一性を考慮した代表クライアントサブセットを選択し、グローバルモデルを送信する。
ローカルトレーニングの後、これらの選択されたクライアントは、圧縮されたモデル更新を集約のためにPSにアップロードし、通信負荷を大幅に軽減し、ストラグラー効果を緩和する。
クライアント選択と勾配圧縮の両方が収束性能に与える影響を理論的に解析する。
導出収束率の導出により,サブモジュラー最大化と線形計画を用いたクライアント選択と圧縮比決定を共同で最適化する反復型アルゴリズムを開発した。
実世界のプロトタイプとシミュレーションの両方の広範な実験により、feedcgは他の方法と比較して最大5.3$\times$のスピードアップを提供できることが示された。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - Heterogeneity-Guided Client Sampling: Towards Fast and Efficient Non-IID Federated Learning [14.866327821524854]
HiCS-FLはサーバがクライアントの出力層を更新してクライアントデータの統計的不均一性を推定する新しいクライアント選択手法である。
非IID設定では、HiCS-FLは最先端のFLクライアント選択方式よりも高速な収束を実現する。
論文 参考訳(メタデータ) (2023-09-30T00:29:30Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。