論文の概要: Spatial-Temporal Transformer Networks for Traffic Flow Forecasting
- arxiv url: http://arxiv.org/abs/2001.02908v2
- Date: Mon, 29 Mar 2021 09:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 05:26:11.586379
- Title: Spatial-Temporal Transformer Networks for Traffic Flow Forecasting
- Title(参考訳): 交通流予測のための時空間変圧器ネットワーク
- Authors: Mingxing Xu, Wenrui Dai, Chunmiao Liu, Xing Gao, Weiyao Lin, Guo-Jun
Qi, Hongkai Xiong
- Abstract要約: 本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
- 参考スコア(独自算出の注目度): 74.76852538940746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic forecasting has emerged as a core component of intelligent
transportation systems. However, timely accurate traffic forecasting,
especially long-term forecasting, still remains an open challenge due to the
highly nonlinear and dynamic spatial-temporal dependencies of traffic flows. In
this paper, we propose a novel paradigm of Spatial-Temporal Transformer
Networks (STTNs) that leverages dynamical directed spatial dependencies and
long-range temporal dependencies to improve the accuracy of long-term traffic
forecasting. Specifically, we present a new variant of graph neural networks,
named spatial transformer, by dynamically modeling directed spatial
dependencies with self-attention mechanism to capture realtime traffic
conditions as well as the directionality of traffic flows. Furthermore,
different spatial dependency patterns can be jointly modeled with multi-heads
attention mechanism to consider diverse relationships related to different
factors (e.g. similarity, connectivity and covariance). On the other hand, the
temporal transformer is utilized to model long-range bidirectional temporal
dependencies across multiple time steps. Finally, they are composed as a block
to jointly model the spatial-temporal dependencies for accurate traffic
prediction. Compared to existing works, the proposed model enables fast and
scalable training over a long range spatial-temporal dependencies. Experiment
results demonstrate that the proposed model achieves competitive results
compared with the state-of-the-arts, especially forecasting long-term traffic
flows on real-world PeMS-Bay and PeMSD7(M) datasets.
- Abstract(参考訳): 交通予測はインテリジェント交通システムの中核的な要素として浮上している。
しかし,交通流の非線型性や動的時空間依存性のため,時間的精度の高い交通予測,特に長期予測は依然として未解決の課題である。
本稿では,長期交通予測の精度向上のために,動的指向型空間依存と長期時間依存を利用した時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には,リアルタイムトラヒック状態とトラヒックフローの方向性を捉えるために,セルフアテンション機構を用いた有向空間依存を動的にモデル化することにより,空間トランスフォーマティブと呼ばれる新しいグラフニューラルネットワークを提案する。
さらに、異なる空間依存パターンは、異なる要因(類似性、接続性、共分散など)に関連する多様な関係を考えるために、マルチヘッドアテンション機構と共同でモデル化することができる。
一方、時間変換器は、複数の時間ステップにまたがる長距離双方向の時間依存性をモデル化するために用いられる。
最後に、正確な交通予測のために空間-時間依存を共同でモデル化するブロックとして構成する。
既存の作業と比較すると,提案モデルでは,空間的-時間的依存関係の高速かつスケーラブルなトレーニングを実現する。
実験結果から,提案モデルは最先端技術と比較して,特に実世界のPeMS-BayおよびPeMSD7(M)データセット上での長期トラフィックフローを予測できることがわかった。
関連論文リスト
- Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Fusion Matrix Prompt Enhanced Self-Attention Spatial-Temporal Interactive Traffic Forecasting Framework [2.9490249935740573]
FMPESTF(Fusion Matrix Prompt-Enhanced Self-Attention Space-Temporal Interactive Traffic Forecasting Framework)を提案する。
FMPESTFは、ダウンサンプリングトラフィックデータのための空間的および時間的モジュールで構成されている。
時間モデリングにおける注意機構を導入し,様々な交通シナリオに適応するための階層型時空間対話型学習を設計する。
論文 参考訳(メタデータ) (2024-10-12T03:47:27Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Multi-Scale Spatial-Temporal Recurrent Networks for Traffic Flow
Prediction [13.426775574655135]
交通流予測のためのマルチスケール時空間リカレントネットワーク(MSSTRN)を提案する。
本研究では,適応的な位置グラフの畳み込みを自己認識機構に統合し,空間的時間的依存関係の同時捕捉を実現する空間的時間的同期的注意機構を提案する。
本モデルは,全20基準法と比較して,非自明なマージンで最高の予測精度を実現する。
論文 参考訳(メタデータ) (2023-10-12T08:52:36Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - D2-TPred: Discontinuous Dependency for Trajectory Prediction under
Traffic Lights [68.76631399516823]
本稿では,空間的動的相互作用グラフ(SDG)と行動依存グラフ(BDG)を用いて,交通信号に対する軌道予測手法D2-TPredを提案する。
実験の結果,VTP-TLではADEとFDEでそれぞれ20.45%,20.78%以上を達成できた。
論文 参考訳(メタデータ) (2022-07-21T10:19:07Z) - Understanding Dynamic Spatio-Temporal Contexts in Long Short-Term Memory
for Road Traffic Speed Prediction [11.92436948211501]
本研究では,道路間の空間的および時間的依存を考慮した動的局所長短期記憶(LSTM)モデルを提案する。
LSTMモデルは、長い依存性を持つシーケンシャルデータと複雑な非線形機能を扱うことができる。
実験結果から,提案モデルの予測性能は2つの異なるベースライン法と比較して優れていた。
論文 参考訳(メタデータ) (2021-12-04T19:33:05Z) - Spatial-Temporal Graph ODE Networks for Traffic Flow Forecasting [22.421667339552467]
時空間予測は幅広い応用において大きな注目を集めており、交通流予測は標準的で典型的な例である。
既存の研究は通常、浅いグラフ畳み込みネットワーク(GNN)と時間的抽出モジュールを使用して、それぞれ空間的および時間的依存関係をモデル化する。
テンソル型常微分方程式(ODE)を用いて時空間ダイナミクスを捉える時空間グラフ正規微分方程式ネットワーク(STGODE)を提案する。
我々は,複数の実世界の交通データセット上でモデルを評価し,最先端のベースライン上で優れた性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T11:48:45Z) - SST-GNN: Simplified Spatio-temporal Traffic forecasting model using
Graph Neural Network [2.524966118517392]
我々は,SST-GNN(SST-GNN)を簡易に設計し,異なる地区を個別に集約することで依存性を効果的に符号化した。
我々は,本モデルが3つの実環境トラフィックデータセットの最先端モデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2021-03-31T18:28:44Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。