論文の概要: GBT: Two-stage transformer framework for non-stationary time series
forecasting
- arxiv url: http://arxiv.org/abs/2307.08302v1
- Date: Mon, 17 Jul 2023 07:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:23:52.714398
- Title: GBT: Two-stage transformer framework for non-stationary time series
forecasting
- Title(参考訳): GBT:非定常時系列予測のための2段階変圧器フレームワーク
- Authors: Li Shen, Yuning Wei, Yangzhu Wang
- Abstract要約: GBTは、Good Startを備えた新しい2段階トランスフォーマーフレームワークである。
TSFTの予測プロセスを、Auto-RegressionステージとSelf-Regressionステージという2つのステージに分割する。
7つのベンチマークデータセットの実験では、GBTは標準的注意と畳み込みのみでSOTA TSFTよりも優れていた。
- 参考スコア(独自算出の注目度): 3.830797055092574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper shows that time series forecasting Transformer (TSFT) suffers from
severe over-fitting problem caused by improper initialization method of unknown
decoder inputs, esp. when handling non-stationary time series. Based on this
observation, we propose GBT, a novel two-stage Transformer framework with Good
Beginning. It decouples the prediction process of TSFT into two stages,
including Auto-Regression stage and Self-Regression stage to tackle the problem
of different statistical properties between input and prediction
sequences.Prediction results of Auto-Regression stage serve as a Good
Beginning, i.e., a better initialization for inputs of Self-Regression stage.
We also propose Error Score Modification module to further enhance the
forecasting capability of the Self-Regression stage in GBT. Extensive
experiments on seven benchmark datasets demonstrate that GBT outperforms SOTA
TSFTs (FEDformer, Pyraformer, ETSformer, etc.) and many other forecasting
models (SCINet, N-HiTS, etc.) with only canonical attention and convolution
while owning less time and space complexity. It is also general enough to
couple with these models to strengthen their forecasting capability. The source
code is available at: https://github.com/OrigamiSL/GBT
- Abstract(参考訳): 本稿では,非定常時系列を扱う場合など,未知のデコーダ入力の不適切な初期化法により,TSFT(Time Series forecasting Transformer)が過度に適合する問題に悩まされることを示す。
そこで本研究では,Good Startを用いた新しい2段階トランスフォーマフレームワークであるGBTを提案する。
TSFTの予測過程を, 自己回帰段階と自己回帰段階の2段階に分解し, 入力と予測シーケンスの異なる統計特性の問題に対処する。
また,GBTにおける自己回帰段階の予測能力を高めるために,誤りスコア修正モジュールを提案する。
7つのベンチマークデータセットにおいて、GBTがSOTA TSFT(FEDformer, Pyraformer, ETSformerなど)と他の予測モデル(SCINet, N-HiTSなど)より優れており、標準的注意と畳み込みのみであり、時間と空間の複雑さは少ない。
また、これらのモデルと組み合わせて予測能力を強化するのにも十分である。
ソースコードはhttps://github.com/origamisl/gbt
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - A Time Series is Worth 64 Words: Long-term Forecasting with Transformers [4.635547236305835]
本稿では,時系列予測と自己教師型表現学習のためのトランスフォーマーモデルを提案する。
i) 時系列をサブシリーズレベルのパッチに分割し、Transformerへの入力トークンとして機能させる。
PatchTSTは、SOTA Transformerベースのモデルと比較して、長期予測精度を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T05:15:42Z) - Transformers meet Stochastic Block Models: Attention with Data-Adaptive
Sparsity and Cost [53.746169882193456]
最近の研究は、自己注意の二次的コストを克服するために、様々なスパークアテンションモジュールを提案している。
本稿では,それぞれの注意を混合メンバーシップブロックモデルで表現することで,両方の問題を解決するモデルを提案する。
我々のモデルは、以前の効率的な変種とオリジナルのトランスフォーマーより優れており、十分に注目されています。
論文 参考訳(メタデータ) (2022-10-27T15:30:52Z) - Non-stationary Transformers: Exploring the Stationarity in Time Series
Forecasting [86.33543833145457]
本稿では,2つの相互依存モジュールを持つ汎用フレームワークとして,非定常変圧器を提案する。
我々のフレームワークは、メインストリームのトランスフォーマーを、大きなマージンで継続的に増加させ、トランスフォーマーで49.43%、インフォーマーで47.34%、改革派で46.89%削減します。
論文 参考訳(メタデータ) (2022-05-28T12:27:27Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z) - TCCT: Tightly-Coupled Convolutional Transformer on Time Series
Forecasting [6.393659160890665]
本稿では, 密結合型畳み込み変換器(TCCT)と3つのTCCTアーキテクチャを提案する。
実世界のデータセットに対する我々の実験は、我々のTCCTアーキテクチャが既存の最先端トランスフォーマーモデルの性能を大幅に改善できることを示している。
論文 参考訳(メタデータ) (2021-08-29T08:49:31Z) - Spike-Triggered Non-Autoregressive Transformer for End-to-End Speech
Recognition [66.47000813920617]
エンドツーエンド音声認識のためのスパイクトリガー付き非自己回帰変換器モデルを提案する。
提案モデルでは,ターゲット列の長さを正確に予測し,競合性能を実現する。
このモデルは0.0056のリアルタイム係数も達成しており、全ての主流音声認識モデルを超えている。
論文 参考訳(メタデータ) (2020-05-16T08:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。