論文の概要: FEDformer: Frequency Enhanced Decomposed Transformer for Long-term
Series Forecasting
- arxiv url: http://arxiv.org/abs/2201.12740v1
- Date: Sun, 30 Jan 2022 06:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 08:56:23.272233
- Title: FEDformer: Frequency Enhanced Decomposed Transformer for Long-term
Series Forecasting
- Title(参考訳): fedformer: 長期系列予測のための周波数強化分解トランス
- Authors: Tian Zhou, Ziqing Ma, Qingsong Wen, Xue Wang, Liang Sun, Rong Jin
- Abstract要約: 本稿では,Transformerと季節差分解法を組み合わせることで,時系列のグローバルなプロファイルを解析する手法を提案する。
我々は、ほとんどの時系列がフーリエ変換のようなよく知られた基底でスパース表現を持つ傾向があるという事実を利用する。
周波数拡張分解変換器 (bf FEDformer) は, より効率的であるとともに, 周波数拡張分解変換器 (ff FEDformer) とよばれる手法が標準変換器よりも効率的である。
- 参考スコア(独自算出の注目度): 23.199388386249215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Transformer-based methods have significantly improved
state-of-the-art results for long-term series forecasting, they are not only
computationally expensive but more importantly, are unable to capture the
global view of time series (e.g. overall trend). To address these problems, we
propose to combine Transformer with the seasonal-trend decomposition method, in
which the decomposition method captures the global profile of time series while
Transformers capture more detailed structures. To further enhance the
performance of Transformer for long-term prediction, we exploit the fact that
most time series tend to have a sparse representation in well-known basis such
as Fourier transform, and develop a frequency enhanced Transformer. Besides
being more effective, the proposed method, termed as Frequency Enhanced
Decomposed Transformer ({\bf FEDformer}), is more efficient than standard
Transformer with a linear complexity to the sequence length. Our empirical
studies with six benchmark datasets show that compared with state-of-the-art
methods, FEDformer can reduce prediction error by $14.8\%$ and $22.6\%$ for
multivariate and univariate time series, respectively. the code will be
released soon.
- Abstract(参考訳): トランスフォーマーに基づく手法は、長期連続予測の最先端結果を著しく改善しているが、これらは計算に高価であるだけでなく、時系列のグローバルなビュー(例えば、全体的なトレンド)を捉えることができない。
そこで本研究では,トランスフォーマがより詳細な構造を捉えながら,時系列の大域的プロファイルを分解する方法として,季節分解法とトランスフォーマを組み合わせることを提案する。
長期予測のための変圧器の性能をさらに高めるために,フーリエ変換などのよく知られた方法では,ほとんどの時系列がスパース表現を持つ傾向にあり,周波数拡張変圧器を開発した。
周波数拡張分解変換器 ({\bf FEDformer}) と呼ばれる提案手法は, より効果的であるとともに, シーケンス長に線形な複雑性を持つ標準変換器よりも効率的である。
6つのベンチマークデータセットを用いた実証研究は、最先端の手法と比較して、FEDformerは予測誤差をそれぞれ14.8\%$と22.6\%$で減らすことができることを示している。
コードはすぐに解放される
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - U-shaped Transformer: Retain High Frequency Context in Time Series
Analysis [0.5710971447109949]
本稿では,変圧器の低域特性を考察し,その利点を取り入れようと試みる。
パッチマージと分割操作を導入し、異なるスケールの機能を抽出し、より大きなデータセットを使用してトランスフォーマーバックボーンを完全に活用する。
実験により、比較的低コストで複数のデータセットをまたいだ高度なレベルでモデルが動作できることが実証された。
論文 参考訳(メタデータ) (2023-07-18T07:15:26Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z) - Finetuning Pretrained Transformers into RNNs [81.72974646901136]
トランスフォーマーは自然言語生成においてリカレントニューラルネットワーク(RNN)を上回っている。
線形複雑リカレント変種は自己回帰生成に適していることが証明されている。
この研究は、事前訓練された変換器を効率の良い再帰変換器に変換することを目的としている。
論文 参考訳(メタデータ) (2021-03-24T10:50:43Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。