論文の概要: Rethinking Spatio-Temporal Transformer for Traffic Prediction:Multi-level Multi-view Augmented Learning Framework
- arxiv url: http://arxiv.org/abs/2406.11921v1
- Date: Mon, 17 Jun 2024 07:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 00:46:12.053456
- Title: Rethinking Spatio-Temporal Transformer for Traffic Prediction:Multi-level Multi-view Augmented Learning Framework
- Title(参考訳): 交通予測のための時空間変圧器の再考:多段階多視点学習フレームワーク
- Authors: Jiaqi Lin, Qianqian Ren,
- Abstract要約: トラフィックは、非常に複雑なセマンティックな相関を含む、困難な時間的予測問題である。
本稿では,交通予測のためのマルチレベル多視点時間変換器(LVST)を提案する。
- 参考スコア(独自算出の注目度): 4.773547922851949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic prediction is a challenging spatio-temporal forecasting problem that involves highly complex spatio-temporal correlations. This paper proposes a Multi-level Multi-view Augmented Spatio-temporal Transformer (LVSTformer) for traffic prediction. The model aims to capture spatial dependencies from three different levels: local geographic, global semantic, and pivotal nodes, along with long- and short-term temporal dependencies. Specifically, we design three spatial augmented views to delve into the spatial information from the perspectives of local, global, and pivotal nodes. By combining three spatial augmented views with three parallel spatial self-attention mechanisms, the model can comprehensively captures spatial dependencies at different levels. We design a gated temporal self-attention mechanism to effectively capture long- and short-term temporal dependencies. Furthermore, a spatio-temporal context broadcasting module is introduced between two spatio-temporal layers to ensure a well-distributed allocation of attention scores, alleviating overfitting and information loss, and enhancing the generalization ability and robustness of the model. A comprehensive set of experiments is conducted on six well-known traffic benchmarks, the experimental results demonstrate that LVSTformer achieves state-of-the-art performance compared to competing baselines, with the maximum improvement reaching up to 4.32%.
- Abstract(参考訳): 交通予測は、非常に複雑な時空間相関を伴う時空間予測問題である。
本稿では,交通予測のためのマルチレベル多視点時空間変換器(LVSTformer)を提案する。
このモデルは、地理的、グローバルセマンティック、ピボットノードの3つの異なるレベルから空間的依存関係を、長期および短期の時間的依存関係とともにキャプチャすることを目的としている。
具体的には,局所的,大域的,重要なノードの観点から空間情報を探索するための3つの空間的拡張ビューを設計する。
3つの空間的拡張ビューと3つの平行な空間的自己アテンションメカニズムを組み合わせることで、モデルは異なるレベルの空間的依存関係を包括的にキャプチャすることができる。
本研究では,長期的・短期的依存関係を効果的に把握するゲート型時間的自己注意機構を設計する。
さらに、2つの時空間層の間に時空間放送モジュールを導入し、注意点の分散配置を確実にし、過度な適合と情報損失を軽減し、モデルの一般化能力と堅牢性を高める。
実験結果は,LVSTformerが競合するベースラインと比較して最先端の性能を達成し,最大4.32%まで向上したことを示す。
関連論文リスト
- Hybrid Transformer and Spatial-Temporal Self-Supervised Learning for
Long-term Traffic Prediction [1.8531577178922987]
本稿では,ハイブリッドトランスフォーマーと自己教師型学習を組み合わせたモデルを提案する。
このモデルは、トラフィックのシーケンスレベルにデータ拡張技術を適用することにより、適応的なデータ拡張を強化する。
本研究では,時間的および空間的依存をモデル化する2つの自己教師型学習タスクを設計し,モデルの精度と能力を向上させる。
論文 参考訳(メタデータ) (2024-01-29T06:17:23Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z) - Multi-Scale Spatial-Temporal Recurrent Networks for Traffic Flow
Prediction [13.426775574655135]
交通流予測のためのマルチスケール時空間リカレントネットワーク(MSSTRN)を提案する。
本研究では,適応的な位置グラフの畳み込みを自己認識機構に統合し,空間的時間的依存関係の同時捕捉を実現する空間的時間的同期的注意機構を提案する。
本モデルは,全20基準法と比較して,非自明なマージンで最高の予測精度を実現する。
論文 参考訳(メタデータ) (2023-10-12T08:52:36Z) - Adaptive Hierarchical SpatioTemporal Network for Traffic Forecasting [70.66710698485745]
本稿では,AHSTN(Adaptive Hierarchical SpatioTemporal Network)を提案する。
AHSTNは空間階層を利用し、マルチスケール空間相関をモデル化する。
2つの実世界のデータセットの実験により、AHSTNはいくつかの強いベースラインよりも優れたパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T14:50:27Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Attention-based Spatial-Temporal Graph Convolutional Recurrent Networks
for Traffic Forecasting [12.568905377581647]
交通予測は交通科学と人工知能における最も基本的な問題の一つである。
既存の手法では、長期的相関と短期的相関を同時にモデル化することはできない。
本稿では,GCRN(Graph Convolutional Recurrent Module)とグローバルアテンションモジュールからなる新しい時空間ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T03:37:00Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - STJLA: A Multi-Context Aware Spatio-Temporal Joint Linear Attention
Network for Traffic Forecasting [7.232141271583618]
非効率な時空間継手線形注意(SSTLA)と呼ばれる交通予測のための新しいディープラーニングモデルを提案する。
SSTLAは、全時間ノード間のグローバル依存を効率的に捉えるために、ジョイントグラフに線形注意を適用する。
実世界の2つの交通データセットであるイングランドとテンポラル7の実験は、我々のSTJLAが最先端のベースラインよりも9.83%と3.08%の精度でMAE測定を達成できることを示した。
論文 参考訳(メタデータ) (2021-12-04T06:39:18Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。