論文の概要: Long-Range Transformers for Dynamic Spatiotemporal Forecasting
- arxiv url: http://arxiv.org/abs/2109.12218v1
- Date: Fri, 24 Sep 2021 22:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 08:11:42.461091
- Title: Long-Range Transformers for Dynamic Spatiotemporal Forecasting
- Title(参考訳): 動的時空間予測のためのロングランジ変換器
- Authors: Jake Grigsby, Zhe Wang, Yanjun Qi
- Abstract要約: 最先端の予測モデルは、時間ステップ間の神経的な注意に依存する。
これは時間的学習を可能にするが、変数間の空間的関係を考慮できない。
LongRange-Series Transformerは、この拡張シーケンスに沿って、空間、時間、および値情報の相互作用を一緒に学習することができる。
データから空間的・時間的関係を学習しながら、交通予測から電力需要、天気予報に至るまでのベンチマークの競争結果を得る。
- 参考スコア(独自算出の注目度): 11.40834254110727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate Time Series Forecasting (TSF) focuses on the prediction of
future values based on historical context. In these problems, dependent
variables provide additional information or early warning signs of changes in
future behavior. State-of-the-art forecasting models rely on neural attention
between timesteps. This allows for temporal learning but fails to consider
distinct spatial relationships between variables. This paper addresses the
problem by translating multivariate TSF into a novel spatiotemporal sequence
formulation where each input token represents the value of a single variable at
a given timestep. Long-Range Transformers can then learn interactions between
space, time, and value information jointly along this extended sequence. Our
method, which we call Spacetimeformer, scales to high dimensional forecasting
problems dominated by Graph Neural Networks that rely on predefined variable
graphs. We achieve competitive results on benchmarks from traffic forecasting
to electricity demand and weather prediction while learning spatial and
temporal relationships purely from data.
- Abstract(参考訳): 多変量時系列予測(TSF)は、歴史的文脈に基づく将来の価値の予測に焦点を当てている。
これらの問題において、依存変数は将来の行動の変化に関する追加情報や早期警告の兆候を提供する。
最先端の予測モデルは、時間ステップ間の神経的な注意に依存する。
これにより時間学習が可能となるが、変数間の空間的関係を考慮できない。
本稿では,各入力トークンが与えられた時刻における単一変数の値を表すような,多変量 TSF を新しい時空間列の定式化に変換することで,この問題に対処する。
長距離トランスフォーマーは、この拡張シーケンスに沿って、空間、時間、価値情報間の相互作用を学習することができる。
提案手法は,事前に定義された変動グラフに依存するグラフニューラルネットワークが支配する高次元予測問題にスケールする。
データから空間的・時間的関係を学習しながら、交通予測から電力需要、天気予報に至るまでのベンチマークの競争結果を得る。
関連論文リスト
- A Variational Autoencoder for Neural Temporal Point Processes with
Dynamic Latent Graphs [45.98786737053273]
このような時間的ダイナミクスの混合を捕捉する新しい変分自動エンコーダを提案する。
モデルは、学習した依存性グラフを使用して、過去のイベントの非貢献的な影響を取り除くことによって、将来のイベント時間を予測する。
論文 参考訳(メタデータ) (2023-12-26T15:11:55Z) - EdgeConvFormer: Dynamic Graph CNN and Transformer based Anomaly
Detection in Multivariate Time Series [7.514010315664322]
本研究では,階層化されたTime2vec埋め込み,動的グラフCNN,Transformerを統合し,グローバルかつ局所的な空間時間情報を抽出する新たな異常検出手法EdgeConvFormerを提案する。
実験により、EdgeConvFormerは、多変量時系列データから時空間モデリングを学習し、異なるスケールの多くの実世界のデータセットに対する最先端のアプローチよりも優れた異常検出性能を得ることができることが示された。
論文 参考訳(メタデータ) (2023-12-04T08:38:54Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting [4.666618110838523]
時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
論文 参考訳(メタデータ) (2022-02-23T10:33:12Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z) - Pay Attention to Evolution: Time Series Forecasting with Deep
Graph-Evolution Learning [33.79957892029931]
本研究は時系列予測のためのニューラルネットワークアーキテクチャを提案する。
Recurrent Graph Evolution Neural Network (ReGENN) と名付けた。
多数のアンサンブル法と古典統計法との比較を行った。
論文 参考訳(メタデータ) (2020-08-28T20:10:07Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Temporal Tensor Transformation Network for Multivariate Time Series
Prediction [1.2354076490479515]
本稿では,時間変換ネットワーク(Temporal Transformation Network)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
これにより、元の多変量時系列の新しい表現が得られ、畳み込みカーネルは、比較的大きな時間領域からの可変相互作用信号だけでなく、複雑で非線形な特徴を抽出することができる。
実験結果から、時間変換ネットワークは、様々なタスクにわたるウィンドウベースの予測において、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-01-04T07:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。