論文の概要: TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables
- arxiv url: http://arxiv.org/abs/2402.19072v4
- Date: Mon, 11 Nov 2024 03:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:05:17.223040
- Title: TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables
- Title(参考訳): TimeXer: 外部変数による時系列予測のためのトランスフォーマーの強化
- Authors: Yuxuan Wang, Haixu Wu, Jiaxiang Dong, Guo Qin, Haoran Zhang, Yong Liu, Yunzhong Qiu, Jianmin Wang, Mingsheng Long,
- Abstract要約: TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 75.83318701911274
- License:
- Abstract: Deep models have demonstrated remarkable performance in time series forecasting. However, due to the partially-observed nature of real-world applications, solely focusing on the target of interest, so-called endogenous variables, is usually insufficient to guarantee accurate forecasting. Notably, a system is often recorded into multiple variables, where the exogenous variables can provide valuable external information for endogenous variables. Thus, unlike well-established multivariate or univariate forecasting paradigms that either treat all the variables equally or ignore exogenous information, this paper focuses on a more practical setting: time series forecasting with exogenous variables. We propose a novel approach, TimeXer, to ingest external information to enhance the forecasting of endogenous variables. With deftly designed embedding layers, TimeXer empowers the canonical Transformer with the ability to reconcile endogenous and exogenous information, where patch-wise self-attention and variate-wise cross-attention are used simultaneously. Moreover, global endogenous tokens are learned to effectively bridge the causal information underlying exogenous series into endogenous temporal patches. Experimentally, TimeXer achieves consistent state-of-the-art performance on twelve real-world forecasting benchmarks and exhibits notable generality and scalability. Code is available at this repository: https://github.com/thuml/TimeXer.
- Abstract(参考訳): ディープモデルは時系列予測において顕著な性能を示した。
しかし、現実の応用の部分的に観察された性質のため、興味の対象のみに焦点を当て、いわゆる内在変数は、正確な予測を保証するには不十分である。
特に、システムはしばしば複数の変数に記録され、そこでは外因性変数は内因性変数に対して貴重な外部情報を提供することができる。
このように、すべての変数を等しく扱うか、外生的情報を無視する、確立された多変量または単変量予測パラダイムとは異なり、本論文はより実践的な設定、すなわち外生的変数を用いた時系列予測に焦点を当てる。
本稿では,内因性変数の予測を強化するため,外部情報を取り込む新しい方法であるTimeXerを提案する。
整然とした設計の埋め込みレイヤにより、TimeXerは、パッチワイドな自己アテンションと可変ワイドな相互アテンションを同時に使用する内因性および外因性情報を整合する機能を備えた標準トランスフォーマーをパワーアップする。
さらに、グローバルな内因性トークンが学習され、外因性系列の根底にある因果情報を内因性側頭葉パッチに効果的にブリッジする。
実験的に、TimeXerは12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを実現し、顕著な一般化とスケーラビリティを示している。
コードは、このリポジトリで入手できる。
関連論文リスト
- Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - EDformer: Embedded Decomposition Transformer for Interpretable Multivariate Time Series Predictions [4.075971633195745]
本稿では,時系列予測タスクのための組込みトランス「EDformer」を提案する。
基本要素を変更することなく、Transformerアーキテクチャを再利用し、その構成部品の有能な機能について検討する。
このモデルは、複雑な実世界の時系列データセットの精度と効率の観点から、最先端の予測結果を得る。
論文 参考訳(メタデータ) (2024-12-16T11:13:57Z) - ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction [11.511830352094353]
時系列予測のためのトランスフォーマーベースのフレームワークであるExoTSTを提案する。
過去の変数と現在の変数を統合するために、ExoTSTは、新しい時間的相互モダリティ融合モジュールを導入した。
実世界の炭素フラックスデータセットと時系列ベンチマークの実験は、ExoTSTの優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-16T03:04:37Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - DLFormer: Enhancing Explainability in Multivariate Time Series Forecasting using Distributed Lag Embedding [4.995397953581609]
本研究では,分散ラグ埋め込みと統合されたアテンションベースのアーキテクチャであるDLFormerを紹介する。
既存の注目ベースのハイパフォーマンスモデルと比較して、優れたパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-08-29T20:39:54Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Probabilistic Learning of Multivariate Time Series with Temporal Irregularity [21.361823581838355]
実世界の時系列はしばしば、一様間隔や不整合変数を含む時間的不規則に悩まされる。
本稿では,変数の連立分布を任意の連続点で捉えながら,時間的不規則性をモデル化するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-15T14:08:48Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。