論文の概要: Balancing Client Participation in Federated Learning Using AoI
- arxiv url: http://arxiv.org/abs/2505.05099v1
- Date: Thu, 08 May 2025 09:55:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.83712
- Title: Balancing Client Participation in Federated Learning Using AoI
- Title(参考訳): AoIを用いたフェデレーション学習におけるクライアント参加のバランス
- Authors: Alireza Javani, Zhiying Wang,
- Abstract要約: Federated Learning(FL)は、分散クライアント間で協調的なモデルトレーニングを可能にしながら、データのプライバシを保存する分散フレームワークを提供する。
本稿では、制御された選択間隔を通して負荷不均衡を最小限に抑えることで、これらの課題に対処する情報時代(AoI)ベースのクライアント選択ポリシーを提案する。
- 参考スコア(独自算出の注目度): 3.2999744336237384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) offers a decentralized framework that preserves data privacy while enabling collaborative model training across distributed clients. However, FL faces significant challenges due to limited communication resources, statistical heterogeneity, and the need for balanced client participation. This paper proposes an Age of Information (AoI)-based client selection policy that addresses these challenges by minimizing load imbalance through controlled selection intervals. Our method employs a decentralized Markov scheduling policy, allowing clients to independently manage participation based on age-dependent selection probabilities, which balances client updates across training rounds with minimal central oversight. We provide a convergence proof for our method, demonstrating that it ensures stable and efficient model convergence. Specifically, we derive optimal parameters for the Markov selection model to achieve balanced and consistent client participation, highlighting the benefits of AoI in enhancing convergence stability. Through extensive simulations, we demonstrate that our AoI-based method, particularly the optimal Markov variant, improves convergence over the FedAvg selection approach across both IID and non-IID data settings by $7.5\%$ and up to $20\%$. Our findings underscore the effectiveness of AoI-based scheduling for scalable, fair, and efficient FL systems across diverse learning environments.
- Abstract(参考訳): Federated Learning(FL)は、分散クライアント間で協調的なモデルトレーニングを可能にしながら、データのプライバシを保存する分散フレームワークを提供する。
しかし、FLは、限られた通信資源、統計的不均一性、クライアントのバランスの取れた参加の必要性など、重大な課題に直面している。
本稿では、制御された選択間隔を通して負荷不均衡を最小限に抑えることで、これらの課題に対処する情報時代(AoI)ベースのクライアント選択ポリシーを提案する。
提案手法では,分散化されたマルコフスケジューリングポリシを用いて,年齢依存の選択確率に基づいて,クライアントの参加を独立に管理し,トレーニングラウンド間のクライアント更新を最小限の集中的監視でバランスさせる。
本手法の収束証明は,安定かつ効率的なモデル収束を保証することを実証するものである。
具体的には、マルコフ選択モデルの最適パラメータを導出し、バランスよく一貫したクライアント参加を実現し、収束安定性の向上におけるAoIの利点を明らかにする。
広範囲にわたるシミュレーションにより,我々のAoI法,特に最適マルコフ変種は,IIDおよび非IIDデータ設定間のFedAvg選択アプローチの収束性を最大$7.5\%,最大$20\%向上させることを示した。
本研究は,多様な学習環境において,スケーラブルで公平で効率的なFLシステムのためのAoIベースのスケジューリングの有効性を裏付けるものである。
関連論文リスト
- HFedCKD: Toward Robust Heterogeneous Federated Learning via Data-free Knowledge Distillation and Two-way Contrast [10.652998357266934]
データフリーな知識蒸留と双方向コントラスト(HFedCKD)に基づくヘテロジニアスフェデレーション方式を提案する。
HFedCKDは、データフリーな知識蒸留における低い参加率による知識オフセットを効果的に軽減し、モデルの性能と安定性を向上させる。
我々は画像とIoTデータセットに関する広範な実験を行い、提案したHFedCKDフレームワークの一般化と堅牢性を包括的に評価し、検証する。
論文 参考訳(メタデータ) (2025-03-09T08:32:57Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Incentive-Compatible Federated Learning with Stackelberg Game Modeling [11.863770989724959]
適応ガンマベースのStackelbergゲームに基づく新しいフェデレートラーニングフレームワークであるFLammaを紹介する。
当社のアプローチでは、サーバがリーダとして機能し、動的に崩壊要因を調整し、クライアントはフォロワーとして、その効用を最大化するローカルエポックの数を最適に選択します。
時間が経つにつれて、サーバはクライアントの影響を徐々にバランスさせ、最初は高いコントリビューションのクライアントに報酬を与え、その影響を徐々にレベルアップさせ、システムをStackelberg Equilibriumに誘導する。
論文 参考訳(メタデータ) (2025-01-05T21:04:41Z) - Load Balancing in Federated Learning [3.2999744336237384]
Federated Learning(FL)は、複数のリモートデバイスに分散したデータからの学習を可能にする、分散機械学習フレームワークである。
本稿では,情報時代に基づくスケジューリングポリシーの負荷指標を提案する。
マルコフ連鎖モデルの最適パラメータを確立し、シミュレーションによりアプローチを検証する。
論文 参考訳(メタデータ) (2024-08-01T00:56:36Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。