論文の概要: Bandit-based Communication-Efficient Client Selection Strategies for
Federated Learning
- arxiv url: http://arxiv.org/abs/2012.08009v1
- Date: Mon, 14 Dec 2020 23:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:41:34.568586
- Title: Bandit-based Communication-Efficient Client Selection Strategies for
Federated Learning
- Title(参考訳): 連合学習のためのバンディット型コミュニケーション効率の高いクライアント選択戦略
- Authors: Yae Jee Cho, Samarth Gupta, Gauri Joshi, Osman Ya\u{g}an
- Abstract要約: コミュニケーションのオーバーヘッドを低減し、より迅速な収束を実現するバンディットベースのコミュニケーション効率の高いクライアント選択戦略UBB-CSを提案する。
また、クライアントの選択を公平性の向上に活用する方法も実証します。
- 参考スコア(独自算出の注目度): 8.627405016032615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to communication constraints and intermittent client availability in
federated learning, only a subset of clients can participate in each training
round. While most prior works assume uniform and unbiased client selection,
recent work on biased client selection has shown that selecting clients with
higher local losses can improve error convergence speed. However, previously
proposed biased selection strategies either require additional communication
cost for evaluating the exact local loss or utilize stale local loss, which can
even make the model diverge. In this paper, we present a bandit-based
communication-efficient client selection strategy UCB-CS that achieves faster
convergence with lower communication overhead. We also demonstrate how client
selection can be used to improve fairness.
- Abstract(参考訳): 連合学習におけるコミュニケーションの制約と断続的なクライアント可用性のため、各トレーニングラウンドにはクライアントのサブセットのみが参加できる。
ほとんどの先行研究は一様かつ偏りのないクライアント選択を想定しているが、偏りのあるクライアント選択に関する最近の研究は、高い局所的損失を持つクライアントを選択することでエラー収束速度が向上することを示している。
しかし、以前に提案されたバイアスド選択戦略は、正確な局所的損失を評価するために追加の通信コストを必要とするか、古い局所的損失を利用するかのどちらかであり、モデルが分岐する可能性さえある。
本稿では,より少ない通信オーバーヘッドでより高速な収束を実現する,banditベースの通信効率の高いクライアント選択戦略ucb-csを提案する。
また,公平性を改善するためにクライアントの選択をどのように利用できるかを示す。
関連論文リスト
- Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - FedSS: Federated Learning with Smart Selection of clients [1.7265013728931]
フェデレーション学習は、ユーザのプライバシを保ちながら、異質なユーザデータを分散的に学習する機能を提供する。
提案するアイデアは,スマートクライアントの選択とスケジューリング手法を検討することで,高速収束と不均一性の間のスイートスポットを見つけることを目的としている。
論文 参考訳(メタデータ) (2022-07-10T23:55:47Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Communication-Efficient Federated Learning with Accelerated Client Gradient [46.81082897703729]
フェデレーション学習は、クライアントデータセットの不均一な特徴のために、遅くて不安定な収束に悩まされることが多い。
本稿では,クライアント間の一貫性を改善し,サーバモデルの収束を容易にする,シンプルだが効果的なフェデレーション学習フレームワークを提案する。
我々は,アルゴリズムの理論的収束率を示し,精度と通信効率の点で顕著な性能向上を示す。
論文 参考訳(メタデータ) (2022-01-10T05:31:07Z) - FedGP: Correlation-Based Active Client Selection for Heterogeneous
Federated Learning [33.996041254246585]
相関に基づくクライアント選択戦略に基づいて構築されたフェデレート学習フレームワークであるFedGPを提案する。
通信コストを削減するために,過去のサンプルを効率的に活用したGPトレーニング手法を開発した。
学習した相関関係に基づいて,各ラウンドで期待されるグローバル損失の低減を図り,クライアントの選択を導出する。
論文 参考訳(メタデータ) (2021-03-24T03:25:14Z) - Stochastic Client Selection for Federated Learning with Volatile Clients [41.591655430723186]
Federated Learning(FL)は、プライバシ保護機械学習パラダイムである。
同期FLトレーニングの各ラウンドでは、参加できるクライアントはごくわずかである。
本稿では,この問題を解決するためのクライアント選択方式であるE3CSを提案する。
論文 参考訳(メタデータ) (2020-11-17T16:35:24Z) - Client Selection in Federated Learning: Convergence Analysis and
Power-of-Choice Selection Strategies [29.127689561987964]
フェデレートラーニングにより、多数のリソース制限されたクライアントノードが、データ共有なしで協調的にモデルをトレーニングできる。
局所的損失の高いクライアントに対するクライアント選択の偏りは、より高速なエラー収束を実現することを示す。
通信および計算効率の高いクライアント選択フレームワークであるPower-of-Choiceを提案する。
論文 参考訳(メタデータ) (2020-10-03T01:04:17Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。