論文の概要: A K-variate Time Series Is Worth K Words: Evolution of the Vanilla
Transformer Architecture for Long-term Multivariate Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2212.02789v1
- Date: Tue, 6 Dec 2022 07:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 17:26:04.957244
- Title: A K-variate Time Series Is Worth K Words: Evolution of the Vanilla
Transformer Architecture for Long-term Multivariate Time Series Forecasting
- Title(参考訳): k-変量時系列はkワードに値する:長期多変量時系列予測のためのバニラトランスアーキテクチャの進化
- Authors: Zanwei Zhou, Ruizhe Zhong, Chen Yang, Yan Wang, Xiaokang Yang, Wei
Shen
- Abstract要約: トランスフォーマーはMTSFのデファクトソリューションとなっている。
本研究では,MTSFトランスフォーマーアーキテクチャにおける現在のトークン化戦略がトランスフォーマーのトークン帰納バイアスを無視していることを指摘した。
バニラMTSF変圧器の基本構造について一連の進化を行った。
驚いたことに、進化した単純変圧器アーキテクチャは非常に効果的であり、バニラMTSF変圧器の過密現象を回避することに成功している。
- 参考スコア(独自算出の注目度): 52.33042819442005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series forecasting (MTSF) is a fundamental problem in
numerous real-world applications. Recently, Transformer has become the de facto
solution for MTSF, especially for the long-term cases. However, except for the
one forward operation, the basic configurations in existing MTSF Transformer
architectures were barely carefully verified. In this study, we point out that
the current tokenization strategy in MTSF Transformer architectures ignores the
token uniformity inductive bias of Transformers. Therefore, the vanilla MTSF
transformer struggles to capture details in time series and presents inferior
performance. Based on this observation, we make a series of evolution on the
basic architecture of the vanilla MTSF transformer. We vary the flawed
tokenization strategy, along with the decoder structure and embeddings.
Surprisingly, the evolved simple transformer architecture is highly effective,
which successfully avoids the over-smoothing phenomena in the vanilla MTSF
transformer, achieves a more detailed and accurate prediction, and even
substantially outperforms the state-of-the-art Transformers that are
well-designed for MTSF.
- Abstract(参考訳): 多変量時系列予測(MTSF)は多くの実世界のアプリケーションにおいて基本的な問題である。
近年,Transformer は MTSF のデファクト・ソリューションとなっている。
しかし、1つの前方操作を除いて、既存のMTSFトランスフォーマーアーキテクチャの基本構成はほとんど慎重に検証されなかった。
本研究では,MTSFトランスフォーマーアーキテクチャにおける現在のトークン化戦略が,トランスフォーマーのトークン均一性誘導バイアスを無視していることを指摘した。
したがって、バニラmtsfトランスフォーマーは時系列の詳細を捉えるのに苦労し、性能が劣る。
この観測に基づいて,バニラMTSF変圧器の基本構造について一連の進化を行った。
我々はデコーダの構造や埋め込みとともに、欠陥のあるトークン化戦略を変える。
驚いたことに、進化した単純なトランスアーキテクチャは非常に効果的であり、バニラMTSFトランスの過密現象を回避し、より詳細に正確な予測を行い、またMTSF用によく設計された最先端のトランスよりも大幅に優れている。
関連論文リスト
- LSEAttention is All You Need for Time Series Forecasting [0.0]
トランスフォーマーベースのアーキテクチャは自然言語処理とコンピュータビジョンにおいて顕著な成功を収めた。
変圧器モデルでよく見られるエントロピー崩壊とトレーニング不安定性に対処するアプローチである textbfLSEAttention を導入する。
論文 参考訳(メタデータ) (2024-10-31T09:09:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - A Systematic Review for Transformer-based Long-term Series Forecasting [7.414422194379818]
トランスフォーマーアーキテクチャは、意味的相関を抽出する最も成功したソリューションであることが証明されている。
様々なバリエーションにより、トランスフォーマーアーキテクチャは長期的な時系列予測タスクを処理できるようになった。
論文 参考訳(メタデータ) (2023-10-31T06:37:51Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - Transformers in Time-series Analysis: A Tutorial [0.0]
トランスフォーマーアーキテクチャは、特に自然言語処理やコンピュータビジョンにおいて広く応用されている。
本チュートリアルでは、Transformerアーキテクチャ、その応用の概要と、時系列解析における最近の研究論文の例を紹介する。
論文 参考訳(メタデータ) (2022-04-28T05:17:45Z) - Transformers in Time Series: A Survey [66.50847574634726]
時系列モデリングのためのTransformerスキームを,その強みと限界を強調して体系的にレビューする。
ネットワーク構造の観点から、トランスフォーマーに施された適応と修正を要約する。
応用の観点からは,予測,異常検出,分類などの共通タスクに基づいて時系列変換器を分類する。
論文 参考訳(メタデータ) (2022-02-15T01:43:27Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。