論文の概要: FedSS: Federated Learning with Smart Selection of clients
- arxiv url: http://arxiv.org/abs/2207.04569v2
- Date: Tue, 26 Sep 2023 18:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 00:14:15.528463
- Title: FedSS: Federated Learning with Smart Selection of clients
- Title(参考訳): fedss: クライアントのスマート選択による連合学習
- Authors: Ammar Tahir, Yongzhou Chen, Prashanti Nilayam
- Abstract要約: フェデレーション学習は、ユーザのプライバシを保ちながら、異質なユーザデータを分散的に学習する機能を提供する。
提案するアイデアは,スマートクライアントの選択とスケジューリング手法を検討することで,高速収束と不均一性の間のスイートスポットを見つけることを目的としている。
- 参考スコア(独自算出の注目度): 1.7265013728931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning provides the ability to learn over heterogeneous user data
in a distributed manner while preserving user privacy. However, its current
client selection technique is a source of bias as it discriminates against slow
clients. For starters, it selects clients that satisfy certain network and
system-specific criteria, thus not selecting slow clients. Even when such
clients are included in the training process, they either struggle with the
training or are dropped altogether for being too slow. Our proposed idea looks
to find a sweet spot between fast convergence and heterogeneity by looking at
smart client selection and scheduling techniques.
- Abstract(参考訳): フェデレーション学習は、ユーザのプライバシを維持しながら、異種ユーザデータを分散形式で学習する機能を提供する。
しかし、現在のクライアント選択技術は、遅いクライアントと差別化するため、バイアスの源となっている。
まず、特定のネットワークやシステム固有の基準を満たすクライアントを選択し、遅いクライアントを選択しない。
そのようなクライアントがトレーニングプロセスに含まれている場合でも、トレーニングに苦しむか、遅すぎるために完全にドロップされる。
提案するアイデアは,スマートクライアントの選択とスケジューリング手法に注目することで,高速収束と異質性の間のスイートスポットを見出したいと考えている。
関連論文リスト
- Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Greedy Shapley Client Selection for Communication-Efficient Federated
Learning [32.38170282930876]
フェデレートラーニング(FL)のための標準的なクライアント選択アルゴリズムは、しばしばバイアスがなく、クライアントのランダムサンプリングが一様である。
私たちは、各通信ラウンドで最も貢献するクライアントを特定し、優しく選択する、バイアスのあるクライアント選択戦略であるGreedyFedを開発します。
複数の実世界のデータセット上のさまざまなクライアント選択戦略と比較して、GreedyFedは、タイミング制約の下で高い精度で高速で安定した収束を示す。
論文 参考訳(メタデータ) (2023-12-14T16:44:38Z) - Provably Personalized and Robust Federated Learning [47.50663360022456]
類似したクライアントのクラスタを識別し、パーソナライズされたモデルパークラスタを訓練する簡単なアルゴリズムを提案する。
アルゴリズムの収束率は、クライアントの真の基盤となるクラスタリングを知っていれば得られるものと一致します。
論文 参考訳(メタデータ) (2023-06-14T09:37:39Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - MDA: Availability-Aware Federated Learning Client Selection [1.9422756778075616]
本研究は,多数のクライアントをトレーニングするクロスデバイスFLというFL設定に焦点を当てた。
バニラFLでは、クライアントはランダムに選択されるため、許容できる精度が得られるが、全体的なトレーニング時間の観点からは理想的ではない。
個々のクライアントのリソースと速度を考慮し、トレーニング時間を改善するために、新しいクライアント選択手法が提案されている。
論文 参考訳(メタデータ) (2022-11-25T22:18:24Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - A Snapshot of the Frontiers of Client Selection in Federated Learning [5.098446527311984]
分散機械学習におけるプライバシ保護手法としてフェデレートラーニング(FL)が提案されている。
クライアントはデータをローカルマシンに保持でき、ローカルにトレーニングされたモデルのパラメータのみを中央サーバと共有できる。
FLは医療、エネルギー、ファイナンスといった現実のシナリオで有望な成果を上げている。
論文 参考訳(メタデータ) (2022-09-27T10:08:18Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Bandit-based Communication-Efficient Client Selection Strategies for
Federated Learning [8.627405016032615]
コミュニケーションのオーバーヘッドを低減し、より迅速な収束を実現するバンディットベースのコミュニケーション効率の高いクライアント選択戦略UBB-CSを提案する。
また、クライアントの選択を公平性の向上に活用する方法も実証します。
論文 参考訳(メタデータ) (2020-12-14T23:35:03Z) - Client Selection in Federated Learning: Convergence Analysis and
Power-of-Choice Selection Strategies [29.127689561987964]
フェデレートラーニングにより、多数のリソース制限されたクライアントノードが、データ共有なしで協調的にモデルをトレーニングできる。
局所的損失の高いクライアントに対するクライアント選択の偏りは、より高速なエラー収束を実現することを示す。
通信および計算効率の高いクライアント選択フレームワークであるPower-of-Choiceを提案する。
論文 参考訳(メタデータ) (2020-10-03T01:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。