論文の概要: FedPSA: Modeling Behavioral Staleness in Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2602.15337v1
- Date: Tue, 17 Feb 2026 03:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.97319
- Title: FedPSA: Modeling Behavioral Staleness in Asynchronous Federated Learning
- Title(参考訳): FedPSA: 非同期フェデレーション学習における行動安定性のモデル化
- Authors: Chaoyi Lu,
- Abstract要約: 非同期学習(AFL)は近年,重要な研究分野として注目されている。
非同期プロセスによって導入された不安定さのため、いくつかのシナリオではパフォーマンスが低下する可能性がある。
既存の手法では、現在のモデルとグローバルモデルとの丸い差を唯一の安定度尺度として用いることが多い。
- 参考スコア(独自算出の注目度): 2.790470200606347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Asynchronous Federated Learning (AFL) has emerged as a significant research area in recent years. By not waiting for slower clients and executing the training process concurrently, it achieves faster training speed compared to traditional federated learning. However, due to the staleness introduced by the asynchronous process, its performance may degrade in some scenarios. Existing methods often use the round difference between the current model and the global model as the sole measure of staleness, which is coarse-grained and lacks observation of the model itself, thereby limiting the performance ceiling of asynchronous methods. In this paper, we propose FedPSA (Parameter Sensitivity-based Asynchronous Federated Learning), a more fine-grained AFL framework that leverages parameter sensitivity to measure model obsolescence and establishes a dynamic momentum queue to assess the current training phase in real time, thereby adjusting the tolerance for outdated information dynamically. Extensive experiments on multiple datasets and comparisons with various methods demonstrate the superior performance of FedPSA, achieving up to 6.37\% improvement over baseline methods and 1.93\% over the current state-of-the-art method.
- Abstract(参考訳): AFL(Asynchronous Federated Learning)は近年,重要な研究分野として注目されている。
遅いクライアントを待たずに同時にトレーニングプロセスを実行することで、従来のフェデレーション学習よりも高速なトレーニング速度を実現する。
しかしながら、非同期プロセスによって導入された不安定さのため、いくつかのシナリオではパフォーマンスが低下する可能性がある。
既存の手法はしばしば、現在のモデルとグローバルモデルの間のラウンド差を、粗い粒度の唯一の尺度として使用し、モデル自体の観察が欠如しているため、非同期メソッドのパフォーマンス天井が制限される。
本稿では,パラメータ感度を利用してモデル偏光を測定し,動的モーメントキューを構築し,現在のトレーニングフェーズをリアルタイムで評価し,時代遅れ情報に対する耐性を動的に調整する,よりきめ細かなAFLフレームワークであるFedPSA(Parameter Sensitivity-based Asynchronous Federated Learning)を提案する。
複数のデータセットに対する大規模な実験と様々な手法との比較により、FedPSAの優れた性能を示し、ベースライン法よりも最大6.37\%、最先端法より最大1.93\%向上した。
関連論文リスト
- End-to-End Training for Autoregressive Video Diffusion via Self-Resampling [63.84672807009907]
自己回帰ビデオ拡散モデルは、世界シミュレーションの可能性を保っているが、列車テストミスマッチに起因する露出バイアスに弱い。
教師なしのフレームワークであるResampling Forcingを導入し、スクラッチから大規模まで自動回帰ビデオモデルのトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-12-17T18:53:29Z) - Efficient Federated Learning with Timely Update Dissemination [54.668309196009204]
分散データ管理のための魅力的な方法論として、フェデレートラーニング(FL)が登場した。
そこで本稿では,ダウンリンクの帯域幅を削減し,タイムリーな更新を確実にするための効率的なFL手法を提案する。
論文 参考訳(メタデータ) (2025-07-08T14:34:32Z) - Corrected with the Latest Version: Make Robust Asynchronous Federated Learning Possible [2.663489028501814]
本稿では,FedADTという知識蒸留に基づく非同期フェデレーション学習バージョン修正アルゴリズムを提案する。
FedADTは、勾配を集約する前に知識蒸留を適用し、最新のグローバルモデルを用いて古い情報を修正し、古い勾配がトレーニングプロセスに負の影響を効果的に低減する。
その結果,FedADTは他の非同期手法よりも大幅に改善され,コンバージェンス速度の点で全ての手法より優れることが示された。
論文 参考訳(メタデータ) (2025-04-05T06:54:13Z) - Adaptive Training Meets Progressive Scaling: Elevating Efficiency in Diffusion Models [52.1809084559048]
TDCトレーニングと呼ばれる新しい2段階分割型トレーニング戦略を提案する。
タスクの類似性と難易度に基づいてタイムステップをグループ化し、高度にカスタマイズされた復調モデルを各グループに割り当て、拡散モデルの性能を向上させる。
2段階のトレーニングでは、各モデルを個別にトレーニングする必要がなくなるが、総トレーニングコストは、単一の統合されたデノナイジングモデルをトレーニングするよりもさらに低い。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - Knowledge Rumination for Client Utility Evaluation in Heterogeneous Federated Learning [12.50871784200551]
フェデレートラーニング(FL)は、いくつかのクライアントが生データを開示することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
非IIDデータと古いモデルは、グローバルモデルの実用性を低下させ、トレーニング失敗につながる可能性があるため、AFLに重大な課題をもたらす。
我々はFedHistと呼ばれる新しいAFLフレームワークを提案し、非IIDデータと勾配安定度の両方がもたらす課題を効果的に解決する。
論文 参考訳(メタデータ) (2023-12-16T11:40:49Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - AsyncFedED: Asynchronous Federated Learning with Euclidean Distance
based Adaptive Weight Aggregation [17.57059932879715]
非同期学習フレームワークでは、サーバがクライアントから更新を受けると、すべての更新が設定通りに到着するのを待つのではなく、グローバルモデルを更新する。
AsyncFedEDと呼ばれる適応重み付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-27T07:18:11Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。