論文の概要: ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction
- arxiv url: http://arxiv.org/abs/2410.12184v1
- Date: Wed, 16 Oct 2024 03:04:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:47.442142
- Title: ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction
- Title(参考訳): ExoTST:時系列予測のためのexogenous-Aware Temporal Sequence Transformer
- Authors: Kshitij Tayal, Arvind Renganathan, Xiaowei Jia, Vipin Kumar, Dan Lu,
- Abstract要約: 時系列予測のためのトランスフォーマーベースのフレームワークであるExoTSTを提案する。
過去の変数と現在の変数を統合するために、ExoTSTは、新しい時間的相互モダリティ融合モジュールを導入した。
実世界の炭素フラックスデータセットと時系列ベンチマークの実験は、ExoTSTの優れた性能を示している。
- 参考スコア(独自算出の注目度): 11.511830352094353
- License:
- Abstract: Accurate long-term predictions are the foundations for many machine learning applications and decision-making processes. Traditional time series approaches for prediction often focus on either autoregressive modeling, which relies solely on past observations of the target ``endogenous variables'', or forward modeling, which considers only current covariate drivers ``exogenous variables''. However, effectively integrating past endogenous and past exogenous with current exogenous variables remains a significant challenge. In this paper, we propose ExoTST, a novel transformer-based framework that effectively incorporates current exogenous variables alongside past context for improved time series prediction. To integrate exogenous information efficiently, ExoTST leverages the strengths of attention mechanisms and introduces a novel cross-temporal modality fusion module. This module enables the model to jointly learn from both past and current exogenous series, treating them as distinct modalities. By considering these series separately, ExoTST provides robustness and flexibility in handling data uncertainties that arise from the inherent distribution shift between historical and current exogenous variables. Extensive experiments on real-world carbon flux datasets and time series benchmarks demonstrate ExoTST's superior performance compared to state-of-the-art baselines, with improvements of up to 10\% in prediction accuracy. Moreover, ExoTST exhibits strong robustness against missing values and noise in exogenous drivers, maintaining consistent performance in real-world situations where these imperfections are common.
- Abstract(参考訳): 正確な長期予測は、多くの機械学習アプリケーションと意思決定プロセスの基礎である。
従来の時系列の予測手法は、対象の「内在変数」の過去の観測にのみ依存する自己回帰的モデリングや、現在の共変量ドライバ「外在変数」のみを考慮に入れたフォワードモデリングに重点を置いていることが多い。
しかしながら、過去の内因性および過去の外因性変数と現在の外因性変数を効果的に統合することは重要な課題である。
本稿では,現在の外因性変数を過去の文脈とともに効果的に組み込んで時系列予測を改善する新しいトランスフォーマーベースのフレームワークであるExoTSTを提案する。
外来情報を効率的に統合するために、ExoTSTはアテンションメカニズムの強みを活用し、新しい時間的モダリティ融合モジュールを導入する。
このモジュールにより、モデルは過去と現在の外生級数の両方から共同で学習することができ、それらを異なるモジュラリティとして扱うことができる。
これらのシリーズを別々に考えると、ExoTSTは、歴史的変数と現在の外因性変数の間に固有の分布シフトから生じるデータ不確実性を扱うための堅牢性と柔軟性を提供する。
実世界の炭素フラックスデータセットと時系列ベンチマークに関する大規模な実験は、ExoTSTが最先端のベースラインよりも優れた性能を示し、予測精度は最大10倍に向上した。
さらに、ExoTSTは、外因性ドライバの欠落値やノイズに対して強い堅牢性を示し、これらの欠陥が一般的である現実の状況において、一貫した性能を維持している。
関連論文リスト
- FDF: Flexible Decoupled Framework for Time Series Forecasting with Conditional Denoising and Polynomial Modeling [5.770377200028654]
時系列予測は多くのWebアプリケーションにおいて不可欠であり、業界全体で重要な意思決定に影響を与える。
我々は拡散モデルが大きな欠点に悩まされていることを論じる。
予測性能を向上させるために,高品質な時系列表現を学習するフレキシブルデカップリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-17T06:20:43Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables [75.83318701911274]
TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-29T11:54:35Z) - A Poisson-Gamma Dynamic Factor Model with Time-Varying Transition Dynamics [51.147876395589925]
非定常PGDSは、基礎となる遷移行列が時間とともに進化できるように提案されている。
後続シミュレーションを行うために, 完全共役かつ効率的なギブスサンプリング装置を開発した。
実験により,提案した非定常PGDSは,関連するモデルと比較して予測性能が向上することを示した。
論文 参考訳(メタデータ) (2024-02-26T04:39:01Z) - Non-autoregressive Conditional Diffusion Models for Time Series
Prediction [3.9722979176564763]
TimeDiffは、高品質な時系列予測を実現する非自己回帰拡散モデルである。
我々はTimeDiffが既存の時系列拡散モデルより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T08:53:59Z) - Discovering Predictable Latent Factors for Time Series Forecasting [39.08011991308137]
我々は,観測可能な時系列によって示唆される本質的な潜伏因子を推定するための新しい枠組みを開発する。
予測可能性,充足性,識別性という3つの特性を導入し,これらの特性を強力な潜伏力学モデルを用いてモデル化する。
複数の実データに対する実験結果から, 時系列予測の手法の有効性が示唆された。
論文 参考訳(メタデータ) (2023-03-18T14:37:37Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。