論文の概要: Overcoming Challenges of Partial Client Participation in Federated Learning : A Comprehensive Review
- arxiv url: http://arxiv.org/abs/2506.02887v2
- Date: Fri, 06 Jun 2025 07:35:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.057106
- Title: Overcoming Challenges of Partial Client Participation in Federated Learning : A Comprehensive Review
- Title(参考訳): フェデレーション学習における部分的顧客参加の課題 : 包括的考察
- Authors: Mrinmay Sen, Shruti Aparna, Rohit Agarwal, Chalavadi Krishna Mohan,
- Abstract要約: Federated Learning(FL)は、異なるクライアントから生データを開示することなく、共有グローバルモデルを協調的にトレーニングする学習メカニズムである。
本稿では、FLにおける部分的クライアント参加の影響について広範な調査を行う。
- 参考スコア(独自算出の注目度): 4.662327345551211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a learning mechanism that falls under the distributed training umbrella, which collaboratively trains a shared global model without disclosing the raw data from different clients. This paper presents an extensive survey on the impact of partial client participation in federated learning. While much of the existing research focuses on addressing issues such as generalization, robustness, and fairness caused by data heterogeneity under the assumption of full client participation, limited attention has been given to the practical and theoretical challenges arising from partial client participation, which is common in real-world scenarios. This survey provides an in-depth review of existing FL methods designed to cope with partial client participation. We offer a comprehensive analysis supported by theoretical insights and empirical findings, along with a structured categorization of these methods, highlighting their respective advantages and disadvantages.
- Abstract(参考訳): Federated Learning(FL)は、分散トレーニング傘の下に置かれる学習メカニズムであり、異なるクライアントから生データを開示することなく、共有グローバルモデルを共同でトレーニングする。
本稿では,フェデレートラーニングにおける部分的クライアント参加の影響について,広範囲にわたる調査を行った。
既存の研究の多くは、完全なクライアント参加を前提としたデータ不均一性による一般化、堅牢性、公平性といった問題に焦点が当てられているが、現実のシナリオでは一般的な部分クライアント参加から生じる実践的および理論的課題には限定的な注意が払われている。
この調査は、クライアントの部分的な参加に対応するために設計された既存のFLメソッドの詳細なレビューを提供する。
理論的洞察と経験的発見に支えられた包括的分析と、これらの手法の構造化された分類を提供し、それぞれの長所と短所を強調した。
関連論文リスト
- Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Advocating for the Silent: Enhancing Federated Generalization for Non-Participating Clients [38.804196122833645]
本稿では,フェデレートラーニングのための情報理論の一般化フレームワークについて紹介する。
局所分布の情報エントロピーを評価することで一般化誤差を定量化する。
導出一般化境界に着想を得て、重み付け集約アプローチとクライアント選択戦略の二重化を導入する。
論文 参考訳(メタデータ) (2023-10-11T03:39:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。