論文の概要: FedAdaVR: Adaptive Variance Reduction for Robust Federated Learning under Limited Client Participation
- arxiv url: http://arxiv.org/abs/2601.22204v1
- Date: Thu, 29 Jan 2026 17:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:14.999475
- Title: FedAdaVR: Adaptive Variance Reduction for Robust Federated Learning under Limited Client Participation
- Title(参考訳): FedAdaVR: 限られたクライアント参加下でのロバストなフェデレーション学習のための適応変数削減
- Authors: S M Ruhul Kabir Howlader, Xiao Chen, Yifei Xie, Lu Liu,
- Abstract要約: 不均一性によるフェデレートラーニング(FL)の遭遇は、クライアントのドリフトノイズ、クライアントの参加エラー、部分的なクライアントエラーにつながる。
本稿では,オプティマイザ・オプティマイザ・セッティングを取り入れた新しいFLであるFedAdaVRを提案する。
また,FedAdaVR-Quantは,動作を量子化形式で保存し,メモリ要求を大幅に低減する。
- 参考スコア(独自算出の注目度): 5.8815174424045695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) encounters substantial challenges due to heterogeneity, leading to gradient noise, client drift, and partial client participation errors, the last of which is the most pervasive but remains insufficiently addressed in current literature. In this paper, we propose FedAdaVR, a novel FL algorithm aimed at solving heterogeneity issues caused by sporadic client participation by incorporating an adaptive optimiser with a variance reduction technique. This method takes advantage of the most recent stored updates from clients, even when they are absent from the current training round, thereby emulating their presence. Furthermore, we propose FedAdaVR-Quant, which stores client updates in quantised form, significantly reducing the memory requirements (by 50%, 75%, and 87.5%) of FedAdaVR while maintaining equivalent model performance. We analyse the convergence behaviour of FedAdaVR under general nonconvex conditions and prove that our proposed algorithm can eliminate partial client participation error. Extensive experiments conducted on multiple datasets, under both independent and identically distributed (IID) and non-IID settings, demonstrate that FedAdaVR consistently outperforms state-of-the-art baseline methods.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、不均一性(heregeneity)による重大な課題に遭遇し、勾配ノイズ、クライアントのドリフト、部分的なクライアントの参加エラーにつながる。
本稿では,適応型オプティマイザと分散低減手法を組み込むことにより,散発的クライアント参加による不均一性問題を解決することを目的とした新しいFLアルゴリズムであるFedAdaVRを提案する。
この方法は、クライアントが現在のトレーニングラウンドを欠席している場合でも、クライアントから最新の更新を活用すれば、その存在をエミュレートできる。
さらに,FedAdaVR-Quantは,クライアント更新を定量化した形式で保存し,等価なモデル性能を維持しつつ,メモリ要求(50%,75%,87.5%)を大幅に削減する。
我々は,一般の非凸条件下でのFedAdaVRの収束挙動を分析し,提案アルゴリズムが部分的クライアント参加誤差を除去できることを示す。
複数のデータセット上で実施された大規模な実験は、独立および同一分散(IID)および非IID設定の両方の下で行われ、FedAdaVRが一貫して最先端のベースラインメソッドより優れていることを示す。
関連論文リスト
- FedOAED: Federated On-Device Autoencoder Denoiser for Heterogeneous Data under Limited Client Availability [5.8815174424045695]
FedOAEDはデバイス上のオートエンコーダをクライアントサイドに組み込んで、クライアント・ドリフトとクライアント・アベイラビリティの制限下での不均一なデータから生じる分散を緩和する。
非IID設定下での複数のビジョンデータセットの実験は、FedOAEDが一貫して最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-12-19T15:35:48Z) - Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - FedSparQ: Adaptive Sparse Quantization with Error Feedback for Robust & Efficient Federated Learning [7.461859467262201]
フェデレートラーニング(FL)は、分散クライアント間の協調モデルトレーニングを可能にする。
FLは、制約されたネットワーク上での高次元モデル更新の頻繁な交換による通信オーバーヘッドに悩まされる。
本稿では,各クライアントの勾配を動的に分散する軽量圧縮フレームワークであるFedSparQを紹介する。
論文 参考訳(メタデータ) (2025-11-05T12:38:08Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - FedStale: leveraging stale client updates in federated learning [10.850101961203748]
フェデレーション学習アルゴリズムは、データの不均一性と部分的クライアント参加によって負の影響を受けます。
本稿は,一部のクライアントが他のクライアントよりもはるかに少ない場合,安定したレベルの更新を集約することで,トレーニングプロセスに有害な影響を与えることを示す。
私たちはFedStaleを紹介します。これは、参加するクライアントからの"フレッシュ"アップデートと、参加していないクライアントからの"ステア"アップデートの凸組み合わせによって、各ラウンドのグローバルモデルを更新する新しいアルゴリズムです。
論文 参考訳(メタデータ) (2024-05-07T10:11:42Z) - FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning [1.802525429431034]
我々はFedADMM-InSaと呼ばれる不正確な自己適応型FedADMMアルゴリズムを提案する。
結果の不正確なADMMの収束は、強い凸損失関数の仮定の下で証明される。
提案アルゴリズムは,クライアントの局所的な計算負荷を大幅に低減し,バニラFedADMMと比較して学習プロセスを高速化する。
論文 参考訳(メタデータ) (2024-02-21T18:19:20Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。