論文の概要: Mitigating Participation Imbalance Bias in Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2511.19066v1
- Date: Mon, 24 Nov 2025 13:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.20285
- Title: Mitigating Participation Imbalance Bias in Asynchronous Federated Learning
- Title(参考訳): 非同期フェデレーション学習における参加不均衡バイアスの緩和
- Authors: Xiangyu Chang, Manyi Yao, Srikanth V. Krishnamurthy, Christian R. Shelton, Anirban Chakraborty, Ananthram Swami, Samet Oymak, Amit Roy-Chowdhury,
- Abstract要約: AFL(Asynchronous Federated Learning)では、中央サーバが、到着する各クライアントのコントリビューションで、グローバルモデルを即座に更新する。
我々は、即時かつ不均衡な更新を通じて参加者の不均衡を軽減するACE(All-Client Engagement AFL)を提案する。
また、クライアントの多様性と更新の安定性のバランスをとるために、遅延対応のACEDも導入しています。
- 参考スコア(独自算出の注目度): 41.50077408659088
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In Asynchronous Federated Learning (AFL), the central server immediately updates the global model with each arriving client's contribution. As a result, clients perform their local training on different model versions, causing information staleness (delay). In federated environments with non-IID local data distributions, this asynchronous pattern amplifies the adverse effect of client heterogeneity (due to different data distribution, local objectives, etc.), as faster clients contribute more frequent updates, biasing the global model. We term this phenomenon heterogeneity amplification. Our work provides a theoretical analysis that maps AFL design choices to their resulting error sources when heterogeneity amplification occurs. Guided by our analysis, we propose ACE (All-Client Engagement AFL), which mitigates participation imbalance through immediate, non-buffered updates that use the latest information available from all clients. We also introduce a delay-aware variant, ACED, to balance client diversity against update staleness. Experiments on different models for different tasks across diverse heterogeneity and delay settings validate our analysis and demonstrate the robust performance of our approaches.
- Abstract(参考訳): AFL(Asynchronous Federated Learning)では、中央サーバが、到着する各クライアントのコントリビューションで、グローバルモデルを即座に更新する。
その結果、クライアントは異なるモデルバージョンでローカルトレーニングを行い、情報の不安定さ(遅延)を引き起こす。
非IIDローカルなデータ分散を備えたフェデレーション環境では、この非同期パターンはクライアントの不均一性(異なるデータ分散、ローカルな目的などによる)の悪影響を増幅します。
この現象を異質増幅と呼ぶ。
我々の研究は、AFLの設計選択を不均一増幅発生時のエラー源にマッピングする理論解析を提供する。
我々はACE(All-Client Engagement AFL)を提案する。ACE(All-Client Engagement AFL)は、すべてのクライアントから利用可能な最新の情報を利用する、即時かつ非バッファの更新を通じて、参加者の不均衡を軽減する。
また、クライアントの多様性と更新の安定性のバランスをとるために、遅延対応のACEDも導入しています。
多様な不均一性および遅延設定の異なるタスクに対する異なるモデルの実験は、我々の分析を検証し、我々のアプローチの堅牢な性能を実証する。
関連論文リスト
- AFCL: Analytic Federated Continual Learning for Spatio-Temporal Invariance of Non-IID Data [45.66391633579935]
Federated Continual Learning (FCL)は、分散クライアントがオンラインタスクストリームからグローバルモデルを協調的にトレーニングすることを可能にする。
FCL法は,分散クライアント間の空間的データ不均一性とオンラインタスク間の時間的データ不均一性の両方の課題に直面している。
凍結抽出特徴量から解析的解(すなわち閉形式)を導出することにより,解析的フェデレート連続学習(AFCL)と呼ばれる勾配のない手法を提案する。
論文 参考訳(メタデータ) (2025-05-18T05:55:09Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Mitigating System Bias in Resource Constrained Asynchronous Federated
Learning Systems [2.8790600498444032]
本稿では,AFL(Asynchronous Federated Learning)デプロイメントにおける動的グローバルモデルアグリゲーション手法を提案する。
提案手法は,アップロード頻度に基づいてクライアントモデル更新の重み付けをスコアリングし,その重み付けを調整し,デバイス機能の違いに対応する。
論文 参考訳(メタデータ) (2024-01-24T10:51:15Z) - Heterogeneous Federated Learning via Personalized Generative Networks [7.629157720712401]
フェデレートラーニング(FL)は、データを共有することなく、複数のクライアントが共通のグローバル機械学習モデルを構築することを可能にする。
本稿では,サーバがクライアント固有のジェネレータを訓練するクライアント間の知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T09:37:02Z) - Joint Local Relational Augmentation and Global Nash Equilibrium for
Federated Learning with Non-IID Data [36.426794300280854]
フェデレーテッド・ラーニング(FL)は分散機械学習のパラダイムであり、サーバーと一連のクライアントの協力を必要とする。
本稿では,局所的リレーショナル拡張(LRA)と大域的ナッシュ均衡(GNE)の2つの主要モジュールからなるFedRANEを提案する。
論文 参考訳(メタデータ) (2023-08-17T06:17:51Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。