論文の概要: Unlocking Dynamic Inter-Client Spatial Dependencies: A Federated Spatio-Temporal Graph Learning Method for Traffic Flow Forecasting
- arxiv url: http://arxiv.org/abs/2511.10434v1
- Date: Fri, 14 Nov 2025 01:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.867256
- Title: Unlocking Dynamic Inter-Client Spatial Dependencies: A Federated Spatio-Temporal Graph Learning Method for Traffic Flow Forecasting
- Title(参考訳): 動的クライアント間空間依存のアンロック:交通流予測のためのフェデレーション時空間グラフ学習法
- Authors: Feng Wang, Tianxiang Chen, Shuyue Wei, Qian Chu, Yi Zhang, Yifan Sun, Zhiming Zheng,
- Abstract要約: Federated Spatio-Temporal Graph with Dynamic Inter-Client Dependencies (FedSTGD)は、フェデレート学習における動的クライアント間空間依存をモデル化し、再構築するためのフレームワークである。
4つの実世界のデータセットの実験は、FedSTGDが最先端のベースラインよりも優れたパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 13.035721364418471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-temporal graphs are powerful tools for modeling complex dependencies in traffic time series. However, the distributed nature of real-world traffic data across multiple stakeholders poses significant challenges in modeling and reconstructing inter-client spatial dependencies while adhering to data locality constraints. Existing methods primarily address static dependencies, overlooking their dynamic nature and resulting in suboptimal performance. In response, we propose Federated Spatio-Temporal Graph with Dynamic Inter-Client Dependencies (FedSTGD), a framework designed to model and reconstruct dynamic inter-client spatial dependencies in federated learning. FedSTGD incorporates a federated nonlinear computation decomposition module to approximate complex graph operations. This is complemented by a graph node embedding augmentation module, which alleviates performance degradation arising from the decomposition. These modules are coordinated through a client-server collective learning protocol, which decomposes dynamic inter-client spatial dependency learning tasks into lightweight, parallelizable subtasks. Extensive experiments on four real-world datasets demonstrate that FedSTGD achieves superior performance over state-of-the-art baselines in terms of RMSE, MAE, and MAPE, approaching that of centralized baselines. Ablation studies confirm the contribution of each module in addressing dynamic inter-client spatial dependencies, while sensitivity analysis highlights the robustness of FedSTGD to variations in hyperparameters.
- Abstract(参考訳): 時空間グラフは、トラフィック時系列における複雑な依存関係をモデリングするための強力なツールである。
しかし、複数の利害関係者にまたがる実世界の交通データの分散特性は、データ局所性制約に固執しながら、クライアント間空間依存のモデリングと再構築において大きな課題を生んでいる。
既存のメソッドは、主に静的な依存関係に対処し、その動的な性質を見渡して、亜最適性能をもたらす。
そこで我々は,FedSTGD(Federated Spatio-Temporal Graph with Dynamic Inter-Client Dependencies)を提案する。
FedSTGDは、複雑なグラフ演算を近似するために、フェデレートされた非線形計算分解モジュールを組み込んでいる。
これはグラフノードの埋め込み拡張モジュールによって補完され、分解によって生じるパフォーマンス劣化を軽減する。
これらのモジュールは、動的クライアント間空間依存学習タスクを軽量で並列化可能なサブタスクに分解する、クライアントサーバの集合学習プロトコルを介してコーディネートされる。
4つの実世界のデータセットに対する大規模な実験により、FedSTGDはRMSE、MAE、MAPEといった最先端のベースラインよりも優れたパフォーマンスを達成し、集中的なベースラインに近づいた。
アブレーション研究は、各モジュールが動的に周期的な空間依存性に対処する上で寄与していることを確認し、感度解析は、ハイパーパラメータの変動に対するFedSTGDの堅牢性を強調している。
関連論文リスト
- Integrating Temporal and Structural Context in Graph Transformers for Relational Deep Learning [6.780460717949915]
直近の領域を越えてノードを検索することで,グローバルなコンテキストを向上する時空間サブグラフサンプリング手法を提案する。
また,リレーショナルディープラーニングのためのグラフトランスフォーマーアーキテクチャであるGraph Perceiver (RGP)を提案する。
RGPは最先端のパフォーマンスを提供し、リレーショナルディープラーニングのための汎用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-11-06T17:08:21Z) - Efficient High-Resolution Visual Representation Learning with State Space Model for Human Pose Estimation [60.80423207808076]
高解像度の視覚表現を維持しながら長距離依存関係をキャプチャすることは、人間のポーズ推定のような密集した予測タスクに不可欠である。
マルチスケールの畳み込み操作で視覚状態空間モデルを拡張する動的ビジュアル状態空間(DVSS)ブロックを提案する。
HRVMambaは効率的な高分解能表現学習のための新しいモデルである。
論文 参考訳(メタデータ) (2024-10-04T06:19:29Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - FedASTA: Federated adaptive spatial-temporal attention for traffic flow prediction [30.346763969306398]
モバイルデバイスとIoT(Internet of Things)デバイスは、今日では大量の異種空間時間データを生成している。
プライバシーの懸念の下で空間的時間的ダイナミクスをモデル化することは依然として難しい問題である。
動的空間時間関係をモデル化するための新しいFedASTAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-21T11:44:07Z) - Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z) - Attention-based Spatial-Temporal Graph Convolutional Recurrent Networks
for Traffic Forecasting [12.568905377581647]
交通予測は交通科学と人工知能における最も基本的な問題の一つである。
既存の手法では、長期的相関と短期的相関を同時にモデル化することはできない。
本稿では,GCRN(Graph Convolutional Recurrent Module)とグローバルアテンションモジュールからなる新しい時空間ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T03:37:00Z) - Spatial-Temporal Graph Convolutional Gated Recurrent Network for Traffic
Forecasting [3.9761027576939414]
時空間グラフ畳み込みGated Recurrent Network (STGCGRN) という,トラフィック予測のための新しいフレームワークを提案する。
交通データ中の周期的な情報をマイニングすることで、長期依存を捕捉するアテンションモジュールを設計する。
4つのデータセットの実験は、我々のモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2022-10-06T08:02:20Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。