論文の概要: Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation
- arxiv url: http://arxiv.org/abs/2008.04882v2
- Date: Mon, 26 Oct 2020 17:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 10:46:16.360761
- Title: Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation
- Title(参考訳): 多変量時系列予測と解釈のための時空間的注意
- Authors: Tryambak Gangopadhyay, Sin Yong Tan, Zhanhong Jiang, Rui Meng, Soumik
Sarkar
- Abstract要約: 最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
- 参考スコア(独自算出の注目度): 17.568599402858037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series modeling and prediction problems are abundant in
many machine learning application domains. Accurate interpretation of such
prediction outcomes from a machine learning model that explicitly captures
temporal correlations can significantly benefit the domain experts. In this
context, temporal attention has been successfully applied to isolate the
important time steps for the input time series. However, in multivariate time
series problems, spatial interpretation is also critical to understand the
contributions of different variables on the model outputs. We propose a novel
deep learning architecture, called spatiotemporal attention mechanism (STAM)
for simultaneous learning of the most important time steps and variables. STAM
is a causal (i.e., only depends on past inputs and does not use future inputs)
and scalable (i.e., scales well with an increase in the number of variables)
approach that is comparable to the state-of-the-art models in terms of
computational tractability. We demonstrate our models' performance on two
popular public datasets and a domain-specific dataset. When compared with the
baseline models, the results show that STAM maintains state-of-the-art
prediction accuracy while offering the benefit of accurate spatiotemporal
interpretability. The learned attention weights are validated from a domain
knowledge perspective for these real-world datasets.
- Abstract(参考訳): 多変量時系列モデリングと予測問題は、多くの機械学習アプリケーション領域で豊富である。
このような予測結果の正確な解釈は、時間的相関を明示的に捉えた機械学習モデルによって、ドメインの専門家に多大な利益をもたらす。
この文脈では、入力時系列の重要な時間ステップを分離するために時間的注意がうまく適用されている。
しかし、多変量時系列問題では、モデル出力に対する異なる変数の寄与を理解するために空間的解釈も重要である。
本稿では,最も重要な時間ステップと変数を同時に学習するための,時空間注意機構(STAM)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
STAMは因果関係(すなわち過去の入力にのみ依存し、将来の入力には依存しない)であり、スケーラブルな(つまり変数の数の増加と共にうまくスケールする)アプローチであり、計算的トラクタビリティの観点からは最先端のモデルに匹敵する。
2つの人気のあるパブリックデータセットとドメイン固有のデータセットで、モデルのパフォーマンスを実証します。
ベースラインモデルと比較すると、STAMは正確な時空間解釈可能性の利点を提供しながら最先端の予測精度を維持していることが示された。
学習した注目度は、これらの実世界のデータセットのドメイン知識の観点から検証される。
関連論文リスト
- DLFormer: Enhancing Explainability in Multivariate Time Series Forecasting using Distributed Lag Embedding [4.995397953581609]
本研究では,分散ラグ埋め込みと統合されたアテンションベースのアーキテクチャであるDLFormerを紹介する。
既存の注目ベースのハイパフォーマンスモデルと比較して、優れたパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-08-29T20:39:54Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - GATGPT: A Pre-trained Large Language Model with Graph Attention Network
for Spatiotemporal Imputation [19.371155159744934]
実世界の環境では、センサーの故障やデータ転送エラーなどの問題により、そのようなデータには欠落する要素がしばしば含まれる。
時間的計算の目的は、観測された時系列における固有の空間的および時間的関係を理解することによって、これらの欠落値を推定することである。
伝統的に、複雑な時間的計算は特定のアーキテクチャに依存しており、適用可能性の制限と高い計算複雑性に悩まされている。
対照的に、我々のアプローチは、事前訓練された大規模言語モデル(LLM)を複雑な時間的インプットに統合し、画期的なフレームワークであるGATGPTを導入している。
論文 参考訳(メタデータ) (2023-11-24T08:15:11Z) - An End-to-End Time Series Model for Simultaneous Imputation and Forecast [14.756607742477252]
我々は,推論関係を学習し,複数段階の予測を行うために,エンドツーエンドの時系列モデルを開発する。
我々のフレームワークは2つのニューラルネットワークを共同でトレーニングし、1つは特徴量相関を学習し、もう1つは時間的行動のモデリングを学習する。
論文 参考訳(メタデータ) (2023-06-01T15:08:22Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Multivariate Probabilistic Time Series Forecasting via Conditioned
Normalizing Flows [8.859284959951204]
時系列予測は科学的・工学的な問題の基本である。
深層学習法はこの問題に適している。
多くの実世界のデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。
論文 参考訳(メタデータ) (2020-02-14T16:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。