論文の概要: Multimodal joint prediction of traffic spatial-temporal data with graph sparse attention mechanism and bidirectional temporal convolutional network
- arxiv url: http://arxiv.org/abs/2412.19842v1
- Date: Tue, 24 Dec 2024 12:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:06:47.385541
- Title: Multimodal joint prediction of traffic spatial-temporal data with graph sparse attention mechanism and bidirectional temporal convolutional network
- Title(参考訳): グラフスパースアテンション機構と双方向時間畳み込みネットワークを用いた交通時空間データのマルチモーダル共同予測
- Authors: Dongran Zhang, Jiangnan Yan, Kemal Polat, Adi Alhudhaif, Jun Li,
- Abstract要約: 本稿では,二方向時間畳み込みネットワーク(GSABT)を用いたグラフスパース注意機構(Graph Sparse Attention Mechanism)を提案する。
自己注意重みを乗じて空間的局所的特徴を捉えるマルチモーダルグラフを用いて,空間的グローバルな特徴を得るためにTop-Uスパースアテンション機構を用いる。
我々は空間次元と時間次元の両方に柔軟に拡張できる多モード共同予測フレームワークを設計した。
- 参考スコア(独自算出の注目度): 25.524351892847257
- License:
- Abstract: Traffic flow prediction plays a crucial role in the management and operation of urban transportation systems. While extensive research has been conducted on predictions for individual transportation modes, there is relatively limited research on joint prediction across different transportation modes. Furthermore, existing multimodal traffic joint modeling methods often lack flexibility in spatial-temporal feature extraction. To address these issues, we propose a method called Graph Sparse Attention Mechanism with Bidirectional Temporal Convolutional Network (GSABT) for multimodal traffic spatial-temporal joint prediction. First, we use a multimodal graph multiplied by self-attention weights to capture spatial local features, and then employ the Top-U sparse attention mechanism to obtain spatial global features. Second, we utilize a bidirectional temporal convolutional network to enhance the temporal feature correlation between the output and input data, and extract inter-modal and intra-modal temporal features through the share-unique module. Finally, we have designed a multimodal joint prediction framework that can be flexibly extended to both spatial and temporal dimensions. Extensive experiments conducted on three real datasets indicate that the proposed model consistently achieves state-of-the-art predictive performance.
- Abstract(参考訳): 交通流予測は都市交通システムの管理・運用において重要な役割を担っている。
個別の輸送モードの予測について広範な研究が行われてきたが、異なる輸送モード間の共同予測については比較的限定的な研究がなされている。
さらに、既存のマルチモーダル交通連成モデリング手法は時空間特徴抽出の柔軟性に欠けることが多い。
これらの問題に対処するために,二方向時間畳み込みネットワーク(GSABT)を用いたグラフスパース注意機構(Graph Sparse Attention Mechanism)を提案する。
まず、自己注意重みを掛けたマルチモーダルグラフを用いて空間的局所的特徴を捉え、次いで空間的グローバルな特徴を得るためにTop-Uスパースアテンション機構を用いる。
第2に、双方向の時間的畳み込みネットワークを用いて、出力データと入力データの間の時間的特徴相関を強化し、共有共通モジュールを介してモーダル間およびモーダル内時間的特徴を抽出する。
最後に,空間次元と時間次元の両方に柔軟に拡張可能な多モード共同予測フレームワークを設計した。
3つの実データセットで実施された大規模な実験は、提案モデルが常に最先端の予測性能を達成することを示唆している。
関連論文リスト
- Enhanced Traffic Flow Prediction with Multi-Segment Fusion Tensor Graph Convolutional Networks [9.44949364543965]
既存の交通流予測モデルは、交通ネットワーク内の複雑な空間的依存関係をキャプチャする際の制限に悩まされる。
本研究では,交通流予測のためのマルチセグメント融合テンソルグラフ畳み込みネットワーク(MS-FTGCN)を提案する。
2つの交通流データセットを用いた実験の結果,提案したMS-FTGCNは最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T05:37:17Z) - Spatiotemporal Forecasting of Traffic Flow using Wavelet-based Temporal Attention [3.049645421090079]
本稿では,ウェーブレットに基づく動的グラフニューラルネットワーク(DS-DSNN)を交通予測問題に対処するための時間的アテンションモデルを提案する。
提案手法は動的時間的および空間的ベンチマークをよりよく処理し,信頼性の高い長期予測を行う。
論文 参考訳(メタデータ) (2024-07-05T11:42:39Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Multi-Scale Spatial-Temporal Recurrent Networks for Traffic Flow
Prediction [13.426775574655135]
交通流予測のためのマルチスケール時空間リカレントネットワーク(MSSTRN)を提案する。
本研究では,適応的な位置グラフの畳み込みを自己認識機構に統合し,空間的時間的依存関係の同時捕捉を実現する空間的時間的同期的注意機構を提案する。
本モデルは,全20基準法と比較して,非自明なマージンで最高の予測精度を実現する。
論文 参考訳(メタデータ) (2023-10-12T08:52:36Z) - Dynamic Graph Convolutional Network with Attention Fusion for Traffic
Flow Prediction [10.3426659705376]
本稿では,同期時空間相関をモデル化するための注意融合型動的グラフ畳み込みネットワークを提案する。
我々は、4つの実世界の交通データセットにおいて、我々の手法が18のベースライン法と比較して最先端の性能を上回ることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2023-02-24T12:21:30Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - Spatial-temporal traffic modeling with a fusion graph reconstructed by
tensor decomposition [10.104097475236014]
グラフ畳み込みネットワーク(GCN)は交通流予測に広く利用されている。
時空間グラフ隣接行列の設計はGCNの成功の鍵となる。
本稿では, テンソル分解による二元隣接行列の再構成を提案する。
論文 参考訳(メタデータ) (2022-12-12T01:44:52Z) - Continuous-Time and Multi-Level Graph Representation Learning for
Origin-Destination Demand Prediction [52.0977259978343]
本稿では,原位置需要予測(CMOD)のための連続時間および多段階動的グラフ表現学習法を提案する。
状態ベクトルは、過去のトランザクション情報を保持し、最近発生したトランザクションに従って継続的に更新される。
北京地下鉄とニューヨークタクシーの2つの実世界のデータセットを用いて実験を行い、そのモデルが最先端のアプローチに対して優れていることを実証した。
論文 参考訳(メタデータ) (2022-06-30T03:37:50Z) - Spatio-temporal Modeling for Large-scale Vehicular Networks Using Graph
Convolutional Networks [110.80088437391379]
SMARTと呼ばれるグラフベースのフレームワークが提案され、大規模な地理的領域にわたるV2I通信遅延の統計をモデル化し、追跡する。
深層Q-networksアルゴリズムと統合したグラフ畳み込みネットワークを用いたグラフ再構築型手法を開発する。
その結果,提案手法は,モデル化の精度と効率と,大規模車両ネットワークにおける遅延性能を有意に向上させることが示された。
論文 参考訳(メタデータ) (2021-03-13T06:56:29Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。