論文の概要: Revisiting Gradient Staleness: Evaluating Distance Metrics for Asynchronous Federated Learning Aggregation
- arxiv url: http://arxiv.org/abs/2603.08211v1
- Date: Mon, 09 Mar 2026 10:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.803959
- Title: Revisiting Gradient Staleness: Evaluating Distance Metrics for Asynchronous Federated Learning Aggregation
- Title(参考訳): グラディエント・ステールネスの再考:非同期フェデレート学習集約のための距離メトリクスの評価
- Authors: Patrick Wilhelm, Odej Kao,
- Abstract要約: 非同期フェデレーション学習(FL)では、クライアントデバイスはその計算速度に基づいて、中央サーバに様々なタイミングで更新を送信する。
この不安定さは、グローバルモデルの収束と精度を低下させる可能性がある。
AsyncFededのような以前の研究は、ユークリッド距離を用いて安定化を測定するアダプティブアグリゲーション手法を提案した。
我々は、勾配の安定化の効果をより正確に捉えるために、代替距離のメトリクスを探索することによってこのアプローチを拡張した。
- 参考スコア(独自算出の注目度): 1.5268922363885409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In asynchronous federated learning (FL), client devices send updates to a central server at varying times based on their computational speed, often using stale versions of the global model. This staleness can degrade the convergence and accuracy of the global model. Previous work, such as AsyncFedED, proposed an adaptive aggregation method using Euclidean distance to measure staleness. In this paper, we extend this approach by exploring alternative distance metrics to more accurately capture the effect of gradient staleness. We integrate these metrics into the aggregation process and evaluate their impact on convergence speed, model performance, and training stability under heterogeneous clients and non-IID data settings. Our results demonstrate that certain metrics lead to more robust and efficient asynchronous FL training, offering a stronger foundation for practical deployment.
- Abstract(参考訳): 非同期フェデレーション学習(FL)では、クライアントデバイスはその計算速度に基づいて中央サーバに更新を送信する。
この不安定さは、グローバルモデルの収束と精度を低下させる可能性がある。
AsyncFededのような以前の研究は、ユークリッド距離を用いて安定化を測定するアダプティブアグリゲーション手法を提案した。
本稿では,勾配の安定度の影響をより正確に把握するために,代替距離の指標を探索することによって,このアプローチを拡張した。
我々はこれらのメトリクスを集約プロセスに統合し、不均一なクライアントと非IIDデータ設定下での収束速度、モデル性能、トレーニング安定性への影響を評価する。
我々の結果は、特定のメトリクスがより堅牢で効率的な非同期FLトレーニングをもたらし、実用的なデプロイメントのためのより強力な基盤を提供することを示す。
関連論文リスト
- FedPSA: Modeling Behavioral Staleness in Asynchronous Federated Learning [19.01943754722055]
非同期学習(AFL)は近年,重要な研究分野として注目されている。
非同期プロセスによって導入された不安定さのため、いくつかのシナリオではパフォーマンスが低下する可能性がある。
既存の手法では、現在のモデルとグローバルモデルとの丸い差を唯一の安定度尺度として用いることが多い。
論文 参考訳(メタデータ) (2026-02-17T03:57:07Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Asynchronous Federated Learning with non-convex client objective functions and heterogeneous dataset [0.9208007322096533]
Tosampling Federated Learning (FL)は、不安定なデータのプライバシを保持しながら、分散デバイス間のコラボレーティブモデルを可能にする。
非同期学習(AFL)は、クライアントが独立して更新できるようにし、スケーラビリティを改善し、同期を遅くすることで、これらの問題に対処する。
我々のフレームワークは、データパワー、分散、通信のバリエーションに対応しており、現実世界のアプリケーションに実用的です。
論文 参考訳(メタデータ) (2025-08-03T09:06:42Z) - Efficient Federated Learning with Timely Update Dissemination [54.668309196009204]
分散データ管理のための魅力的な方法論として、フェデレートラーニング(FL)が登場した。
そこで本稿では,ダウンリンクの帯域幅を削減し,タイムリーな更新を確実にするための効率的なFL手法を提案する。
論文 参考訳(メタデータ) (2025-07-08T14:34:32Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - AsyncFedED: Asynchronous Federated Learning with Euclidean Distance
based Adaptive Weight Aggregation [17.57059932879715]
非同期学習フレームワークでは、サーバがクライアントから更新を受けると、すべての更新が設定通りに到着するのを待つのではなく、グローバルモデルを更新する。
AsyncFedEDと呼ばれる適応重み付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-27T07:18:11Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。