論文の概要: Long-Range Transformers for Dynamic Spatiotemporal Forecasting
- arxiv url: http://arxiv.org/abs/2109.12218v3
- Date: Sat, 18 Mar 2023 03:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 05:48:58.013079
- Title: Long-Range Transformers for Dynamic Spatiotemporal Forecasting
- Title(参考訳): 動的時空間予測のためのロングランジ変換器
- Authors: Jake Grigsby, Zhe Wang, Nam Nguyen, Yanjun Qi
- Abstract要約: グラフニューラルネットワークに基づく手法は、変数関係を明示的にモデル化する。
ロングランジ変換器は、この拡張シーケンスに沿って時間、値、情報の相互作用を一緒に学習することができる。
- 参考スコア(独自算出の注目度): 16.37467119526305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate time series forecasting focuses on predicting future values
based on historical context. State-of-the-art sequence-to-sequence models rely
on neural attention between timesteps, which allows for temporal learning but
fails to consider distinct spatial relationships between variables. In
contrast, methods based on graph neural networks explicitly model variable
relationships. However, these methods often rely on predefined graphs that
cannot change over time and perform separate spatial and temporal updates
without establishing direct connections between each variable at every
timestep. Our work addresses these problems by translating multivariate
forecasting into a "spatiotemporal sequence" formulation where each Transformer
input token represents the value of a single variable at a given time.
Long-Range Transformers can then learn interactions between space, time, and
value information jointly along this extended sequence. Our method, which we
call Spacetimeformer, achieves competitive results on benchmarks from traffic
forecasting to electricity demand and weather prediction while learning
spatiotemporal relationships purely from data.
- Abstract(参考訳): 多変量時系列予測は、歴史的文脈に基づく将来の値の予測に焦点を当てている。
state-of-the-art sequence-to-sequenceモデルは、時間ステップ間の神経的注意に依存している。
対照的に、グラフニューラルネットワークに基づく手法は、変数関係を明示的にモデル化する。
しかしながら、これらの方法は、時間とともに変更できず、時間ステップ毎に各変数間の直接接続を確立することなく、別々の空間的および時間的更新を行う事前定義されたグラフに依存することが多い。
本研究では,多変量予測を"spatiotemporal sequence"形式に変換し,各トランスフォーマタ入力トークンが与えられた時間に1つの変数の値を表す。
長距離トランスフォーマーは、この拡張シーケンスに沿って、空間、時間、価値情報間の相互作用を学習することができる。
提案手法は,データから時空間関係を学習しながら,トラヒック予測から電力需要,気象予報まで,ベンチマークの競合結果を得る。
関連論文リスト
- TimeCNN: Refining Cross-Variable Interaction on Time Point for Time Series Forecasting [44.04862924157323]
トランスフォーマーベースのモデルは、クロスタイムとクロス変数の相互作用をモデル化する上で大きなポテンシャルを示す。
本稿では,時系列予測を強化するために,異種間相互作用を洗練するためのTimeCNNモデルを提案する。
12の実世界のデータセットで実施された大規模な実験は、TimeCNNが一貫して最先端のモデルを上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-07T09:16:58Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - A Variational Autoencoder for Neural Temporal Point Processes with
Dynamic Latent Graphs [45.98786737053273]
このような時間的ダイナミクスの混合を捕捉する新しい変分自動エンコーダを提案する。
モデルは、学習した依存性グラフを使用して、過去のイベントの非貢献的な影響を取り除くことによって、将来のイベント時間を予測する。
論文 参考訳(メタデータ) (2023-12-26T15:11:55Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Pay Attention to Evolution: Time Series Forecasting with Deep
Graph-Evolution Learning [33.79957892029931]
本研究は時系列予測のためのニューラルネットワークアーキテクチャを提案する。
Recurrent Graph Evolution Neural Network (ReGENN) と名付けた。
多数のアンサンブル法と古典統計法との比較を行った。
論文 参考訳(メタデータ) (2020-08-28T20:10:07Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。