論文の概要: Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2305.16370v1
- Date: Thu, 25 May 2023 13:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 18:54:50.993393
- Title: Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting
- Title(参考訳): stecformer:多変量時系列予測のための時空間符号化カスケードトランス
- Authors: Zheng Sun, Yi Wei, Wenxiao Jia, and Long Yu
- Abstract要約: 本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
- 参考スコア(独自算出の注目度): 11.021398675773055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate long-term time series forecasting is of great application across
many domains, such as energy consumption and weather forecasting. With the
development of transformer-based methods, the performance of multivariate
long-term time series forecasting has been significantly improved, however, the
study of spatial features extracting in transformer-based model is rare and the
consistency of different prediction periods is unsatisfactory due to the large
span. In this work, we propose a complete solution to address these problems in
terms of feature extraction and target prediction. For extraction, we design an
efficient spatio-temporal encoding extractor including a semi-adaptive graph to
acquire sufficient spatio-temporal information. For prediction, we propose a
Cascaded Decoding Predictor (CDP) to strengthen the correlation between
different intervals, which can also be utilized as a generic component to
improve the performance of transformer-based methods. The proposed method,
termed as Spatio-temporal Encoding Cascaded Transformer (Stecformer), achieving
a notable gap over the baseline model and is comparable with the
state-of-the-art performance of transformer-based methods on five benchmark
datasets. We hope our attempt will serve as a regular configuration in
multivariate long-term time series forecasting in the future.
- Abstract(参考訳): 多変量時系列予測は、エネルギー消費や天気予報など、多くの分野において大きな応用である。
変圧器に基づく手法の開発により,多変量長期時系列予測の性能は大幅に向上しているが,変圧器モデルにおける空間的特徴の抽出は稀であり,予測期間の一貫性が大きすぎて不十分である。
本研究では,特徴抽出と目標予測の観点から,これらの問題を解決するための完全な解を提案する。
抽出のために,半適応グラフを含む効率的な時空間符号化抽出器を設計し,時空間情報を取得する。
予測のために,各区間間の相関性を高めるために,カスケード復号予測器(cdp)を提案する。
提案手法は時空間符号化カスケード変換器(Stecformer)と呼ばれ、ベースラインモデルよりも顕著なギャップを達成し、5つのベンチマークデータセット上でのトランスフォーマーベースの手法の最先端性能に匹敵する。
今後,多変量長期時系列予測における定期的な構成として,我々の試みが望まれる。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Compatible Transformer for Irregularly Sampled Multivariate Time Series [75.79309862085303]
本研究では,各サンプルに対して総合的な時間的相互作用特徴学習を実現するためのトランスフォーマーベースのエンコーダを提案する。
実世界の3つのデータセットについて広範な実験を行い、提案したCoFormerが既存の手法を大幅に上回っていることを検証した。
論文 参考訳(メタデータ) (2023-10-17T06:29:09Z) - MPPN: Multi-Resolution Periodic Pattern Network For Long-Term Time
Series Forecasting [19.573651104129443]
長期の時系列予測は、様々な現実のシナリオにおいて重要な役割を果たす。
近年の時系列予測の深層学習手法は,分解法やサンプリング法により時系列の複雑なパターンを捉える傾向にある。
本稿では,MPPN(Multi- resolution Periodic Pattern Network)という,長期連続予測のための新しいディープラーニングネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-12T07:00:37Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - CLMFormer: Mitigating Data Redundancy to Revitalize Transformer-based
Long-Term Time Series Forecasting System [46.39662315849883]
時系列予測(LTSF)は,様々な応用において重要な役割を担っている。
既存のTransformerベースのモデルであるFedformerやInformerは、いくつかのエポックの後、検証セット上で最高のパフォーマンスを達成することが多い。
本稿では,カリキュラム学習とメモリ駆動デコーダの導入により,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z) - A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting [4.666618110838523]
時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
論文 参考訳(メタデータ) (2022-02-23T10:33:12Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。