論文の概要: ProSTformer: Pre-trained Progressive Space-Time Self-attention Model for
Traffic Flow Forecasting
- arxiv url: http://arxiv.org/abs/2111.03459v1
- Date: Wed, 3 Nov 2021 12:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 05:41:16.303434
- Title: ProSTformer: Pre-trained Progressive Space-Time Self-attention Model for
Traffic Flow Forecasting
- Title(参考訳): ProSTformer:交通流予測のための訓練済み進行時空間自己注意モデル
- Authors: Xiao Yan, Xianghua Gan, Jingjing Tang, Rui Wang
- Abstract要約: 2つの問題により、交通流の予測にアプローチが効果的に適用されない。
まず、依存関係を判断し、次に、ProSTformerという時空の自己アテンションメカニズムを取ります。
ProSTformerは、RMSEの6つの最先端メソッドよりも、大規模なデータセット上で、より良く、あるいは同等に動作する。
- 参考スコア(独自算出の注目度): 6.35012051925346
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Traffic flow forecasting is essential and challenging to intelligent city
management and public safety. Recent studies have shown the potential of
convolution-free Transformer approach to extract the dynamic dependencies among
complex influencing factors. However, two issues prevent the approach from
being effectively applied in traffic flow forecasting. First, it ignores the
spatiotemporal structure of the traffic flow videos. Second, for a long
sequence, it is hard to focus on crucial attention due to the quadratic times
dot-product computation. To address the two issues, we first factorize the
dependencies and then design a progressive space-time self-attention mechanism
named ProSTformer. It has two distinctive characteristics: (1) corresponding to
the factorization, the self-attention mechanism progressively focuses on
spatial dependence from local to global regions, on temporal dependence from
inside to outside fragment (i.e., closeness, period, and trend), and finally on
external dependence such as weather, temperature, and day-of-week; (2) by
incorporating the spatiotemporal structure into the self-attention mechanism,
each block in ProSTformer highlights the unique dependence by aggregating the
regions with spatiotemporal positions to significantly decrease the
computation. We evaluate ProSTformer on two traffic datasets, and each dataset
includes three separate datasets with big, medium, and small scales. Despite
the radically different design compared to the convolutional architectures for
traffic flow forecasting, ProSTformer performs better or the same on the big
scale datasets than six state-of-the-art baseline methods by RMSE. When
pre-trained on the big scale datasets and transferred to the medium and small
scale datasets, ProSTformer achieves a significant enhancement and behaves
best.
- Abstract(参考訳): 交通の流れの予測は、インテリジェントな都市管理と公共の安全に欠かせない。
近年の研究では、複雑な影響因子間の動的依存性を抽出するための畳み込みフリー変圧器アプローチの可能性が示されている。
しかし,2つの課題により,トラヒックフロー予測に効果的に適用できない。
まず、トラフィックフロービデオの時空間構造を無視します。
第二に、長いシーケンスでは、2次時間ドット積計算のために重要な注意を集中することは困難である。
この2つの問題に対処するため、まず依存関係を分解し、ProSTformerというプログレッシブな時空間自己保持機構を設計する。
It has two distinctive characteristics: (1) corresponding to the factorization, the self-attention mechanism progressively focuses on spatial dependence from local to global regions, on temporal dependence from inside to outside fragment (i.e., closeness, period, and trend), and finally on external dependence such as weather, temperature, and day-of-week; (2) by incorporating the spatiotemporal structure into the self-attention mechanism, each block in ProSTformer highlights the unique dependence by aggregating the regions with spatiotemporal positions to significantly decrease the computation.
2つのトラヒックデータセットでprostformerを評価し,各データセットは,大小,中小の3つのデータセットを含む。
トラフィックフロー予測のための畳み込みアーキテクチャとは全く異なる設計であるにもかかわらず、prostformerは、rmseによる6つの最先端のベースラインメソッドよりも、大規模なデータセットでパフォーマンスが良いか、同等である。
大規模データセットで事前トレーニングを行い、中小規模データセットに転送すると、ProSTformerは大幅に拡張され、最も振舞う。
関連論文リスト
- Spatiotemporal Forecasting of Traffic Flow using Wavelet-based Temporal Attention [3.049645421090079]
本稿では,ウェーブレットに基づく動的グラフニューラルネットワーク(DS-DSNN)を交通予測問題に対処するための時間的アテンションモデルを提案する。
提案手法は動的時間的および空間的ベンチマークをよりよく処理し,信頼性の高い長期予測を行う。
論文 参考訳(メタデータ) (2024-07-05T11:42:39Z) - Rethinking Spatio-Temporal Transformer for Traffic Prediction:Multi-level Multi-view Augmented Learning Framework [4.773547922851949]
トラフィックは、非常に複雑なセマンティックな相関を含む、困難な時間的予測問題である。
本稿では,交通予測のためのマルチレベル多視点時間変換器(LVST)を提案する。
論文 参考訳(メタデータ) (2024-06-17T07:36:57Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Self-Supervised Deconfounding Against Spatio-Temporal Shifts: Theory and
Modeling [48.09863133371918]
本研究では,過去の交通データ,将来の交通データ,外部STコンテキストの因果グラフを構築することで,問題を定式化する。
OODトラフィックデータにおける先行技術の失敗は、STコンテキストが共同創設者として機能すること、すなわち過去のデータと将来のデータに対する共通の原因によるものであることが示される。
本研究では,STEVE(Spatio-Temporal sElf-superVised dEconfounding)フレームワークを考案し,トラフィックデータを2つの不整合表現に符号化し,不変および変動STコンテキストを関連付ける。
論文 参考訳(メタデータ) (2023-11-21T09:33:13Z) - Multi-Scale Spatial-Temporal Recurrent Networks for Traffic Flow
Prediction [13.426775574655135]
交通流予測のためのマルチスケール時空間リカレントネットワーク(MSSTRN)を提案する。
本研究では,適応的な位置グラフの畳み込みを自己認識機構に統合し,空間的時間的依存関係の同時捕捉を実現する空間的時間的同期的注意機構を提案する。
本モデルは,全20基準法と比較して,非自明なマージンで最高の予測精度を実現する。
論文 参考訳(メタデータ) (2023-10-12T08:52:36Z) - Attention-based Spatial-Temporal Graph Convolutional Recurrent Networks
for Traffic Forecasting [12.568905377581647]
交通予測は交通科学と人工知能における最も基本的な問題の一つである。
既存の手法では、長期的相関と短期的相関を同時にモデル化することはできない。
本稿では,GCRN(Graph Convolutional Recurrent Module)とグローバルアテンションモジュールからなる新しい時空間ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T03:37:00Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Interpretable Crowd Flow Prediction with Spatial-Temporal Self-Attention [16.49833154469825]
群衆の流れを予測する最も難しい部分は、複雑な空間的・時間的依存関係を測定することである。
時空間表現全体を計算するためのST符号化ゲートを備えた時空間自己認識ネットワーク(STSAN)を提案する。
交通および移動データに関する実験結果から,提案手法はTaxi-NYCデータセット上でRMSEの流入と流出を16%減らし,8%減らすことを示した。
論文 参考訳(メタデータ) (2020-02-22T12:43:11Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。