論文の概要: Generalizable Memory-driven Transformer for Multivariate Long Sequence
Time-series Forecasting
- arxiv url: http://arxiv.org/abs/2207.07827v2
- Date: Sun, 21 May 2023 08:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 06:06:53.543742
- Title: Generalizable Memory-driven Transformer for Multivariate Long Sequence
Time-series Forecasting
- Title(参考訳): 多変量長系列予測のための一般化メモリ駆動変圧器
- Authors: Mingjie Li, Rui Liu, Xiaoyun Zhao, Guangsi Shi, Mingfei Han, Changlin
Li, Ling Chen, and Xiaojun Chang
- Abstract要約: M-LSTFモデルは、複数の時間的特徴の中と間の両方で時系列パターンを学習する必要がある。
M-LSTF問題を対象とした一般化可能なメモリ駆動変換器を提案する。
当社のアプローチは,様々なTransformerベースのモデルにシームレスにプラグインすることで,パフォーマンスを約30%向上させることが可能です。
- 参考スコア(独自算出の注目度): 36.82149758471355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate long sequence time-series forecasting (M-LSTF) is a practical
but challenging problem. Unlike traditional timer-series forecasting tasks,
M-LSTF tasks are more challenging from two aspects: 1) M-LSTF models need to
learn time-series patterns both within and between multiple time features; 2)
Under the rolling forecasting setting, the similarity between two consecutive
training samples increases with the increasing prediction length, which makes
models more prone to overfitting. In this paper, we propose a generalizable
memory-driven Transformer to target M-LSTF problems. Specifically, we first
propose a global-level memory component to drive the forecasting procedure by
integrating multiple time-series features. In addition, we adopt a progressive
fashion to train our model to increase its generalizability, in which we
gradually introduce Bernoulli noises to training samples. Extensive experiments
have been performed on five different datasets across multiple fields.
Experimental results demonstrate that our approach can be seamlessly plugged
into varying Transformer-based models to improve their performances up to
roughly 30%. Particularly, this is the first work to specifically focus on the
M-LSTF tasks to the best of our knowledge.
- Abstract(参考訳): 多変量長周期時系列予測(M-LSTF)は実用的だが難しい問題である。
従来のタイマーシリーズ予測タスクとは異なり、M-LSTFタスクは2つの側面からより難しい。
1)M-LSTFモデルは、複数の時間的特徴の中と間の両方で時系列パターンを学習する必要がある。
2) 転がり予測条件下では, 2つの連続トレーニングサンプル間の類似度は, 予測長の増大とともに増大し, モデルが過度に適合しやすくなった。
本稿では,M-LSTF問題を対象とした一般化可能なメモリ駆動トランスを提案する。
具体的には、まず、複数の時系列機能を統合して予測手順を進めるグローバルレベルメモリコンポーネントを提案する。
さらに、一般化性を高めるためにモデルをトレーニングするために進歩的な手法を採用し、徐々にBernoulliノイズをトレーニングサンプルに導入する。
複数のフィールドにまたがる5つの異なるデータセットで広範な実験が行われた。
実験の結果,本手法はトランスフォーマーモデルにシームレスに接続でき,最大30%の性能向上が期待できることがわかった。
特に、私たちの知識を最大限に活用するために、M-LSTFタスクに特に焦点を合わせるのは、これが初めてです。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Client: Cross-variable Linear Integrated Enhanced Transformer for
Multivariate Long-Term Time Series Forecasting [4.004869317957185]
クライアント(Client)は,従来のトランスフォーマーベースモデルと線形モデルの両方に勝る高度なモデルである。
クライアントは、従来の線形モデルとTransformerベースのモデルとを分離した、非線形性とクロス変数の依存関係を組み込んでいる。
論文 参考訳(メタデータ) (2023-05-30T08:31:22Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。