論文の概要: TimeXer: Empowering Transformers for Time Series Forecasting with
Exogenous Variables
- arxiv url: http://arxiv.org/abs/2402.19072v1
- Date: Thu, 29 Feb 2024 11:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:02:46.563128
- Title: TimeXer: Empowering Transformers for Time Series Forecasting with
Exogenous Variables
- Title(参考訳): TimeXer: 外部変数による時系列予測のためのトランスフォーマーの強化
- Authors: Yuxuan Wang, Haixu Wu, Jiaxiang Dong, Yong Liu, Yunzhong Qiu, Haoran
Zhang, Jianmin Wang, Mingsheng Long
- Abstract要約: 内因性変数の予測を強化するために外部情報を利用する新しいフレームワークであるTimeXerを提案する。
TimeXerは、内在変数による時系列予測を大幅に改善し、12の実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 82.07393844821522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have demonstrated remarkable performance in time series
forecasting. However, due to the partially-observed nature of real-world
applications, solely focusing on the target of interest, so-called endogenous
variables, is usually insufficient to guarantee accurate forecasting. Notably,
a system is often recorded into multiple variables, where the exogenous series
can provide valuable external information for endogenous variables. Thus,
unlike prior well-established multivariate or univariate forecasting that
either treats all the variables equally or overlooks exogenous information,
this paper focuses on a practical setting, which is time series forecasting
with exogenous variables. We propose a novel framework, TimeXer, to utilize
external information to enhance the forecasting of endogenous variables. With a
deftly designed embedding layer, TimeXer empowers the canonical Transformer
architecture with the ability to reconcile endogenous and exogenous
information, where patch-wise self-attention and variate-wise cross-attention
are employed. Moreover, a global endogenous variate token is adopted to
effectively bridge the exogenous series into endogenous temporal patches.
Experimentally, TimeXer significantly improves time series forecasting with
exogenous variables and achieves consistent state-of-the-art performance in
twelve real-world forecasting benchmarks.
- Abstract(参考訳): 最近の研究は時系列予測において顕著な性能を示した。
しかし、現実の応用が部分的に観察されているため、興味の対象である内因性変数のみに焦点を当てているため、正確な予測を保証するには不十分である。
特に、システムはしばしば複数の変数に記録され、外因性系列は内因性変数の貴重な外部情報を提供できる。
したがって,従来確立されていた多変量予測や一変量予測とは違って,本論文では,外生変数を用いた時系列予測の実践的な設定に焦点をあてる。
内因性変数の予測を強化するために外部情報を利用する新しいフレームワークであるTimeXerを提案する。
整然とした設計の埋め込みレイヤにより、TimeXerは、内因性および外因性情報の整合性を備えた標準トランスフォーマーアーキテクチャをパワーアップする。
さらに、外因性系列を内因性時間パッチに効果的にブリッジするために、グローバルな内因性変動トークンが採用されている。
実験的に、timexerは外因性変数による時系列予測を大幅に改善し、12の現実世界予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
関連論文リスト
- ExoTST: Exogenous-Aware Temporal Sequence Transformer for Time Series Prediction [11.511830352094353]
時系列予測のためのトランスフォーマーベースのフレームワークであるExoTSTを提案する。
過去の変数と現在の変数を統合するために、ExoTSTは、新しい時間的相互モダリティ融合モジュールを導入した。
実世界の炭素フラックスデータセットと時系列ベンチマークの実験は、ExoTSTの優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-16T03:04:37Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - DLFormer: Enhancing Explainability in Multivariate Time Series Forecasting using Distributed Lag Embedding [4.995397953581609]
本研究では,分散ラグ埋め込みと統合されたアテンションベースのアーキテクチャであるDLFormerを紹介する。
既存の注目ベースのハイパフォーマンスモデルと比較して、優れたパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-08-29T20:39:54Z) - Robust Multivariate Time Series Forecasting against Intra- and Inter-Series Transitional Shift [40.734564394464556]
本稿では,時系列内/時系列間の相関関係を統合的に把握し,時変遷移分布をモデル化するための統一確率グラフモデルを提案する。
6つの高定常MTSデータセットに対する広範囲な実験により、JointPGMの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-07-18T06:16:03Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。