論文の概要: Probabilistic Decomposition Transformer for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2210.17393v1
- Date: Mon, 31 Oct 2022 15:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:29:44.329658
- Title: Probabilistic Decomposition Transformer for Time Series Forecasting
- Title(参考訳): 時系列予測のための確率分解変換器
- Authors: Junlong Tong, Liping Xie, Wankou Yang, Kanjian Zhang
- Abstract要約: 本稿では,トランスフォーマと条件付き生成モデルを組み合わせた確率分解変換器モデルを提案する。
Transformerは、時間パターンを学習し、主要な確率予測を実装するために使用される。
条件生成モデルは、非自己回帰的階層的確率予測を達成するために使用される。
- 参考スコア(独自算出の注目度): 13.472690692157164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is crucial for many fields, such as disaster warning,
weather prediction, and energy consumption. The Transformer-based models are
considered to have revolutionized the field of sequence modeling. However, the
complex temporal patterns of the time series hinder the model from mining
reliable temporal dependencies. Furthermore, the autoregressive form of the
Transformer introduces cumulative errors in the inference step. In this paper,
we propose the probabilistic decomposition Transformer model that combines the
Transformer with a conditional generative model, which provides hierarchical
and interpretable probabilistic forecasts for intricate time series. The
Transformer is employed to learn temporal patterns and implement primary
probabilistic forecasts, while the conditional generative model is used to
achieve non-autoregressive hierarchical probabilistic forecasts by introducing
latent space feature representations. In addition, the conditional generative
model reconstructs typical features of the series, such as seasonality and
trend terms, from probability distributions in the latent space to enable
complex pattern separation and provide interpretable forecasts. Extensive
experiments on several datasets demonstrate the effectiveness and robustness of
the proposed model, indicating that it compares favorably with the state of the
art.
- Abstract(参考訳): 時系列予測は災害警報、天気予報、エネルギー消費など多くの分野において重要である。
トランスフォーマーベースのモデルはシーケンスモデリングの分野に革命をもたらしたと考えられている。
しかし、時系列の複雑な時間パターンは、信頼できる時間依存のマイニングを妨げている。
さらに、Transformerの自己回帰形式は、推論ステップで累積誤差を導入する。
本稿では,複雑な時系列に対して階層的かつ解釈可能な確率予測を提供する条件生成モデルと変換器を結合した確率分解変換器モデルを提案する。
Transformerは時間パターンの学習と一次確率予測の実装に使用され、条件生成モデルは非自己回帰的階層的確率予測を潜在空間特徴表現を導入して達成する。
さらに、条件生成モデルは、季節性やトレンド項などのシリーズの典型的な特徴を、潜在空間の確率分布から再構成し、複雑なパターン分離を可能にし、解釈可能な予測を提供する。
いくつかのデータセットに関する広範囲な実験は、提案されたモデルの有効性と堅牢性を示し、それが芸術の状況と好適に比較できることを示している。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Recurrent Interpolants for Probabilistic Time Series Prediction [10.422645245061899]
リカレントニューラルネットワークやトランスフォーマーのような逐次モデルは、確率的時系列予測の標準となっている。
近年の研究では、拡散モデルやフローベースモデルを用いて、時系列計算や予測に拡張した生成的アプローチについて検討している。
本研究は、補間剤と制御機能付き条件生成に基づく、リカレントニューラルネットワークの効率と拡散モデルの確率的モデリングを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-18T03:52:48Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Flow-based Spatio-Temporal Structured Prediction of Motion Dynamics [21.24885597341643]
条件付き流れ (CNF) は、高次元と相互相関を持つ複雑な分布を表現できるフレキシブルな生成モデルである。
本研究では,時間的入力特徴の出力を自己回帰的に正規化する新しい手法としてMotionFlowを提案する。
本稿では,予測,動き予測時系列予測,二分節分割などのタスクに本手法を適用した。
論文 参考訳(メタデータ) (2021-04-09T14:30:35Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Temporal Latent Auto-Encoder: A Method for Probabilistic Multivariate
Time Series Forecasting [4.131842516813833]
時間系列の非線形ファクタリゼーションを可能にする新しい時間的潜時オートエンコーダ法を提案する。
確率的潜時空間モデルにより、入力系列の複雑な分布はデコーダを介してモデル化される。
我々のモデルは、多くの一般的な多変量データセット上で最先端のパフォーマンスを達成し、いくつかの標準メトリクスに対して最大50%のゲインを得られることがある。
論文 参考訳(メタデータ) (2021-01-25T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。