論文の概要: FedSSG: Expectation-Gated and History-Aware Drift Alignment for Federated Learning
- arxiv url: http://arxiv.org/abs/2509.13895v1
- Date: Wed, 17 Sep 2025 10:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.824761
- Title: FedSSG: Expectation-Gated and History-Aware Drift Alignment for Federated Learning
- Title(参考訳): FedSSG:フェデレーション学習のための期待と歴史を意識したドリフトアライメント
- Authors: Zhanting Zhou, Jinshan Lai, Fengchun Zhang, Zeqin Wu, Fengli Zhang,
- Abstract要約: FedSSGは、サンプリング誘導型、履歴対応のドリフトアライメント方式である。
FedSSGは、強いドリフト認識ベースラインを一貫して上回り、収束を加速する。
- 参考スコア(独自算出の注目度): 4.175654562922818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-IID data and partial participation induce client drift and inconsistent local optima in federated learning, causing unstable convergence and accuracy loss. We present FedSSG, a stochastic sampling-guided, history-aware drift alignment method. FedSSG maintains a per-client drift memory that accumulates local model differences as a lightweight sketch of historical gradients; crucially, it gates both the memory update and the local alignment term by a smooth function of the observed/expected participation ratio (a phase-by-expectation signal derived from the server sampler). This statistically grounded gate stays weak and smooth when sampling noise dominates early, then strengthens once participation statistics stabilize, contracting the local-global gap without extra communication. Across CIFAR-10/100 with 100/500 clients and 2-15 percent participation, FedSSG consistently outperforms strong drift-aware baselines and accelerates convergence; on our benchmarks it improves test accuracy by up to a few points (e.g., about +0.9 on CIFAR-10 and about +2.7 on CIFAR-100 on average over the top-2 baseline) and yields about 4.5x faster target-accuracy convergence on average. The method adds only O(d) client memory and a constant-time gate, and degrades gracefully to a mild regularizer under near-IID or uniform sampling. FedSSG shows that sampling statistics can be turned into a principled, history-aware phase control to stabilize and speed up federated training.
- Abstract(参考訳): 非IIDデータと部分的参加は、フェデレート学習におけるクライアントドリフトと不整合局所最適化を誘導し、不安定な収束と精度損失を引き起こす。
統計的サンプリング誘導型ドリフトアライメント手法であるFedSSGを提案する。
FedSSGは、履歴勾配の軽量なスケッチとして局所モデル差を蓄積するクライアント毎のドリフトメモリを維持しており、重要なことは、メモリ更新とローカルアライメント項の両方を、観測/予測された参加比(サーバサンプリングから派生した位相毎の信号)のスムーズな関数でゲートする。
この統計的に接地されたゲートは、サンプリングノイズが早期に支配されると弱く滑らかに保たれ、一度の参加統計が安定すると、余分な通信なしで局所的なギャップを縮小する。
CIFAR-10/100には100/500のクライアントと2~15%の参加があり、FedSSGは一貫して強いドリフト認識ベースラインを上回り、収束を加速します。
この方法は、O(d)クライアントメモリと定時ゲートのみを付加し、ほぼIIDまたは一様サンプリングの下で穏やかな正規化器に優雅に分解する。
FedSSGは、サンプリング統計を、フェデレートトレーニングの安定化と高速化のために、原則付き履歴対応の位相制御に変換することができることを示した。
関連論文リスト
- FedTeddi: Temporal Drift and Divergence Aware Scheduling for Timely Federated Edge Learning [12.104759384825705]
フェデレートエッジラーニング(FEEL)は、生データを公開せずに、無線ネットワークを介して分散クライアント間で協調的なモデルトレーニングを可能にする。
重要な課題は、このような進化するデータに対して、タイムリーながら効率的な方法でモデルを適応する方法である。
FEELの高速収束を容易にする時間差分対応スケジューリングアルゴリズムであるFedTeddiを提案する。
論文 参考訳(メタデータ) (2025-09-09T02:33:48Z) - Federated Learning Clients Clustering with Adaptation to Data Drifts [27.974937897248132]
フェデレートラーニング(FL)は、生データを集中することなく、エッジデバイスをまたいだディープモデルをトレーニングし、ユーザのプライバシを保護します。
低オーバーヘッドで多種多様なデータドリフトを処理するためのフレームワークであるFIELdingを提案する。
実験の結果、FIELDINGは最終モデルの精度を1.9-5.9%向上し、目標の精度は既存の最先端CFL法よりも1.16x-2.23倍向上した。
論文 参考訳(メタデータ) (2024-11-03T14:13:38Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [0.0]
フェデレートラーニング(FL)は、データを複数の場所に保持するモデル("clients")をセキュアにトレーニングするために提案されている。
FLアルゴリズムの性能を阻害する2つの大きな課題は、階層化クライアントによって引き起こされる長いトレーニング時間と、非イドローカルなデータ分布("client drift")によるモデル精度の低下である。
本稿では,Asynchronous Exact Averaging (AREA, Asynchronous Exact Averaging) を提案する。Asynchronous Exact Averaging (AREA) は,通信を利用して収束を高速化し,拡張性を向上し,クライアント更新頻度の変動によるクライアントのドリフトの補正にクライアントメモリを利用する。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。