論文の概要: Distribution-Controlled Client Selection to Improve Federated Learning Strategies
- arxiv url: http://arxiv.org/abs/2509.20877v1
- Date: Thu, 25 Sep 2025 08:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.781572
- Title: Distribution-Controlled Client Selection to Improve Federated Learning Strategies
- Title(参考訳): フェデレーション学習方略改善のための分散制御型クライアント選択
- Authors: Christoph Düsing, Philipp Cimiano,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、複数のクライアントが共同で共有モデルをトレーニングできる分散ラーニングパラダイムである。
クライアント間のデータ不均衡の存在は、共有モデルの性能が低下する原因となるFLの成功へのスレッドである。
本稿では,既存のFL戦略を拡張し,現在のラベル分布と2つのターゲット分布のうちの1つを最適に整合させるアクティブクライアントを選択する。
- 参考スコア(独自算出の注目度): 4.254099382808598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed learning paradigm that allows multiple clients to jointly train a shared model while maintaining data privacy. Despite its great potential for domains with strict data privacy requirements, the presence of data imbalance among clients is a thread to the success of FL, as it causes the performance of the shared model to decrease. To address this, various studies have proposed enhancements to existing FL strategies, particularly through client selection methods that mitigate the detrimental effects of data imbalance. In this paper, we propose an extension to existing FL strategies, which selects active clients that best align the current label distribution with one of two target distributions, namely a balanced distribution or the federations combined label distribution. Subsequently, we empirically verify the improvements through our distribution-controlled client selection on three common FL strategies and two datasets. Our results show that while aligning the label distribution with a balanced distribution yields the greatest improvements facing local imbalance, alignment with the federation's combined label distribution is superior for global imbalance.
- Abstract(参考訳): フェデレートラーニング(FL)は分散学習パラダイムであり、複数のクライアントがデータのプライバシを維持しながら共有モデルを共同でトレーニングすることを可能にする。
厳格なデータプライバシ要件を持つドメインには大きな可能性があるが、クライアント間のデータ不均衡の存在は、共有モデルのパフォーマンスが低下する原因となり、FLの成功へのスレッドである。
これを解決するために、様々な研究が既存のFL戦略、特にデータ不均衡による有害な影響を軽減するクライアント選択手法の強化を提案している。
本稿では、既存のFL戦略を拡張し、現在のラベル分布を2つのターゲット分布のうちの1つ、すなわちバランスの取れた分布と連合が組み合わされたラベル分布とを最適に整合するアクティブクライアントを選択する。
その後,3つの共通FL戦略と2つのデータセットに対して,分散制御されたクライアント選択による改善を実証的に検証した。
その結果, ラベル分布とバランス分布との整合性は, 局所的不均衡に直面する最大の改善をもたらすが, フェデレーションと組み合わせたラベル分布との整合性は, グローバル不均衡に優れていることがわかった。
関連論文リスト
- Balancing Client Participation in Federated Learning Using AoI [3.2999744336237384]
Federated Learning(FL)は、分散クライアント間で協調的なモデルトレーニングを可能にしながら、データのプライバシを保存する分散フレームワークを提供する。
本稿では、制御された選択間隔を通して負荷不均衡を最小限に抑えることで、これらの課題に対処する情報時代(AoI)ベースのクライアント選択ポリシーを提案する。
論文 参考訳(メタデータ) (2025-05-08T09:55:28Z) - Disentangling data distribution for Federated Learning [20.524108508314107]
フェデレートラーニング(FL)は、分散クライアントが所有するプライベートデータによってパフォーマンスが向上するグローバルモデルの協調トレーニングを促進する。
しかし、FLの幅広い適用性は、異なるクライアント間のデータ分散の絡み合いによって妨げられている。
本稿では,FLがデータ分散を解き放つことによって,分散システムに匹敵する効率を原理的に達成できることを初めて示す。
論文 参考訳(メタデータ) (2024-10-16T13:10:04Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Overcome Modal Bias in Multi-modal Federated Learning via Balanced Modality Selection [19.284989473603627]
マルチモーダル学習(MFL)のための新しいバランスモード選択フレームワークを提案する。
特定の単一モードの局所的なトレーニングは、すべての局所的なモダリティのトレーニングよりも、グローバルなモデルに寄与する可能性があることを示す。
オーディオ・ビジュアル・カラーグレー・フロントバック・データセットに関する実験は,ベースラインよりもBMSFの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-12-31T05:37:27Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。