論文の概要: SyncFed: Time-Aware Federated Learning through Explicit Timestamping and Synchronization
- arxiv url: http://arxiv.org/abs/2506.09660v1
- Date: Wed, 11 Jun 2025 12:29:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.94928
- Title: SyncFed: Time-Aware Federated Learning through Explicit Timestamping and Synchronization
- Title(参考訳): SyncFed: タイムスタンプと同期によるタイムアウェアなフェデレーション学習
- Authors: Baran Can Gül, Stefanos Tziampazis, Nasser Jazdi, Michael Weyrich,
- Abstract要約: emphSyncFedは、明示的な同期とタイムスタンプを使用して、システム全体で共通の時間的参照を確立する、時間対応のFLフレームワークである。
静的性は、NTP(Network Time Protocol)の下で交換されたタイムスタンプに基づいて数値化され、サーバがクライアント更新の相対的な鮮度について推論することができる。
地理的に分散したテストベッドを用いた実験により, グローバルモデルが安定な時間的文脈で進化し, 精度と情報更新性が向上したことを示す。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Federated Learning (FL) expands to larger and more distributed environments, consistency in training is challenged by network-induced delays, clock unsynchronicity, and variability in client updates. This combination of factors may contribute to misaligned contributions that undermine model reliability and convergence. Existing methods like staleness-aware aggregation and model versioning address lagging updates heuristically, yet lack mechanisms to quantify staleness, especially in latency-sensitive and cross-regional deployments. In light of these considerations, we introduce \emph{SyncFed}, a time-aware FL framework that employs explicit synchronization and timestamping to establish a common temporal reference across the system. Staleness is quantified numerically based on exchanged timestamps under the Network Time Protocol (NTP), enabling the server to reason about the relative freshness of client updates and apply temporally informed weighting during aggregation. Our empirical evaluation on a geographically distributed testbed shows that, under \emph{SyncFed}, the global model evolves within a stable temporal context, resulting in improved accuracy and information freshness compared to round-based baselines devoid of temporal semantics.
- Abstract(参考訳): Federated Learning (FL) が大規模で分散した環境に拡大するにつれ、トレーニングの一貫性は、ネットワークによる遅延、クロック非同期性、クライアント更新における可変性といった問題に直面する。
この要素の組み合わせは、モデルの信頼性と収束を損なう不整合貢献に寄与する可能性がある。
静的アグリゲーションやモデルバージョニングアドレスのラギングアップデートのような既存のメソッドでは、静的に更新されるが、特にレイテンシに敏感な、リージョン間のデプロイメントにおいて、スタギネスを定量化するメカニズムが欠如している。
これらの考察を踏まえ、明示的な同期とタイムスタンプを利用して、システム全体で共通の時間的参照を確立する、時間対応FLフレームワークである \emph{SyncFed} を紹介する。
静的性は、NTP(Network Time Protocol)の下で交換されたタイムスタンプに基づいて数値化され、サーバがクライアント更新の相対的な鮮度を推論し、アグリゲーション中に時間的に通知される重み付けを適用することができる。
地理的に分散したテストベッド上での実験的な評価により,グローバルモデルが安定な時間的文脈内で進化し,時間的意味論を欠いたラウンドベースベースラインに比べて精度と情報更新性が向上したことが示された。
関連論文リスト
- Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [55.09326865401653]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - FRAIN to Train: A Fast-and-Reliable Solution for Decentralized Federated Learning [1.1510009152620668]
非同期学習(FL)は、データの局所性を維持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
我々は、2つの重要なアイデアを取り入れることでこれらの制限を緩和する新しいFL手法であるFRAIN(Fast-and-Reliable AI Network)を導入する。
CNNイメージ分類モデルとTransformerベースの言語モデルによる実験では、FRAINはFedAvg、FedAsync、BRAINよりも安定的で堅牢な収束を実現している。
論文 参考訳(メタデータ) (2025-05-07T08:20:23Z) - STRGCN: Capturing Asynchronous Spatio-Temporal Dependencies for Irregular Multivariate Time Series Forecasting [14.156419219696252]
STRGCNはIMTSの複雑な相互依存性を完全連結グラフとして表現する。
4つの公開データセットの実験では、STRGCNが最先端の精度、競合するメモリ使用量、トレーニング速度を達成することが示されている。
論文 参考訳(メタデータ) (2025-05-07T06:41:33Z) - DRAN: A Distribution and Relation Adaptive Network for Spatio-temporal Forecasting [19.064628208136273]
本稿では、時間とともに変化に適応し、分散することができるリレーショナル・アダプティブ・ネットワーク・ディストリビューション(DRAN)を提案する。
本研究では,SFLが時間的操作の空間的関係を効率的に保存していることを示す。
本手法は,天気予報や交通予報における技術手法の状況に優れる。
論文 参考訳(メタデータ) (2025-04-02T09:18:43Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - FAVANO: Federated AVeraging with Asynchronous NOdes [14.412305295989444]
本稿では,資源制約環境下でのディープニューラルネットワーク(DNN)のトレーニングのための,新しい集中型非同期フェデレートラーニング(FL)フレームワークであるFAVANOを提案する。
論文 参考訳(メタデータ) (2023-05-25T14:30:17Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [55.596897987498174]
本稿では,重み付き時間遅延フィードバック機構を備えたゲートリカレントユニット(GRU)を導入し,時系列データの長期依存性をモデル化する手法を提案する。
提案したモデルである $tau$-GRU は、繰り返し単位の連続時間定式化の離散版であり、力学は遅延微分方程式(DDE)によって制御される。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - AsyncFedED: Asynchronous Federated Learning with Euclidean Distance
based Adaptive Weight Aggregation [17.57059932879715]
非同期学習フレームワークでは、サーバがクライアントから更新を受けると、すべての更新が設定通りに到着するのを待つのではなく、グローバルモデルを更新する。
AsyncFedEDと呼ばれる適応重み付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-27T07:18:11Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。