論文の概要: DSformer: A Double Sampling Transformer for Multivariate Time Series
Long-term Prediction
- arxiv url: http://arxiv.org/abs/2308.03274v1
- Date: Mon, 7 Aug 2023 03:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:34:15.479056
- Title: DSformer: A Double Sampling Transformer for Multivariate Time Series
Long-term Prediction
- Title(参考訳): DSformer:多変量時系列長期予測のための二重サンプリング変換器
- Authors: Chengqing Yu, Fei Wang, Zezhi Shao, Tao Sun, Lin Wu, Yongjun Xu
- Abstract要約: 本稿では、二重サンプリング(DS)ブロックと時間変動アテンション(TVA)ブロックからなる二重サンプリングトランス(DSformer)を提案する。
9つの実世界のデータセットの実験結果から、DSformerは既存の8つのベースラインを上回ります。
- 参考スコア(独自算出の注目度): 14.154121327330026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series long-term prediction, which aims to predict the
change of data in a long time, can provide references for decision-making.
Although transformer-based models have made progress in this field, they
usually do not make full use of three features of multivariate time series:
global information, local information, and variables correlation. To
effectively mine the above three features and establish a high-precision
prediction model, we propose a double sampling transformer (DSformer), which
consists of the double sampling (DS) block and the temporal variable attention
(TVA) block. Firstly, the DS block employs down sampling and piecewise sampling
to transform the original series into feature vectors that focus on global
information and local information respectively. Then, TVA block uses temporal
attention and variable attention to mine these feature vectors from different
dimensions and extract key information. Finally, based on a parallel structure,
DSformer uses multiple TVA blocks to mine and integrate different features
obtained from DS blocks respectively. The integrated feature information is
passed to the generative decoder based on a multi-layer perceptron to realize
multivariate time series long-term prediction. Experimental results on nine
real-world datasets show that DSformer can outperform eight existing baselines.
- Abstract(参考訳): 多変量時系列の長期予測は、データの長期変化を予測することを目的としており、意思決定のための参照を提供することができる。
この分野ではトランスフォーマーベースのモデルが進歩しているが、大域情報、局所情報、変数相関の3つの特徴をフル活用していないのが普通である。
上記の3つの特徴を効果的にマイニングし,高精度な予測モデルを確立するために,二重サンプリング(DS)ブロックと時間変動注意(TVA)ブロックからなる二重サンプリングトランス (DSformer) を提案する。
まず、DSブロックはダウンサンプリングとピースワイズサンプリングを使用して、元のシリーズをそれぞれグローバル情報とローカル情報に焦点を当てた特徴ベクトルに変換する。
そして、TVAブロックは時間的注意と可変注意を用いて、これらの特徴ベクトルを異なる次元からマイニングし、キー情報を抽出する。
最後に、並列構造に基づいて、DSformerは複数のTVAブロックを使用して、それぞれDSブロックから得られた異なる特徴をマイニングし統合する。
統合特徴情報は、多層パーセプトロンに基づいて生成デコーダに渡され、多変量時系列の長期予測を実現する。
9つの実世界のデータセットの実験結果から、DSformerは既存の8つのベースラインを上回ります。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - DRFormer: Multi-Scale Transformer Utilizing Diverse Receptive Fields for Long Time-Series Forecasting [3.420673126033772]
本稿では,動的スパース学習アルゴリズムを用いた動的トークン化手法を提案する。
提案するDRFormerは,実世界の様々なデータセットを用いて評価し,既存の手法と比較して,その優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-08-05T07:26:47Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - EdgeConvFormer: Dynamic Graph CNN and Transformer based Anomaly
Detection in Multivariate Time Series [7.514010315664322]
本研究では,階層化されたTime2vec埋め込み,動的グラフCNN,Transformerを統合し,グローバルかつ局所的な空間時間情報を抽出する新たな異常検出手法EdgeConvFormerを提案する。
実験により、EdgeConvFormerは、多変量時系列データから時空間モデリングを学習し、異なるスケールの多くの実世界のデータセットに対する最先端のアプローチよりも優れた異常検出性能を得ることができることが示された。
論文 参考訳(メタデータ) (2023-12-04T08:38:54Z) - Compatible Transformer for Irregularly Sampled Multivariate Time Series [75.79309862085303]
本研究では,各サンプルに対して総合的な時間的相互作用特徴学習を実現するためのトランスフォーマーベースのエンコーダを提案する。
実世界の3つのデータセットについて広範な実験を行い、提案したCoFormerが既存の手法を大幅に上回っていることを検証した。
論文 参考訳(メタデータ) (2023-10-17T06:29:09Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - DuETT: Dual Event Time Transformer for Electronic Health Records [14.520791492631114]
我々はDuETTアーキテクチャを紹介した。これは、時間とイベントの両タイプにまたがるように設計されたトランスフォーマーの拡張である。
DuETTは集約された入力を使用し、スパース時系列は一定長さの正規シーケンスに変換される。
本モデルでは,MIMIC-IV と PhysioNet-2012 EHR データセットを用いて,複数の下流タスクにおける最先端のディープラーニングモデルより優れています。
論文 参考訳(メタデータ) (2023-04-25T17:47:48Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - Triformer: Triangular, Variable-Specific Attentions for Long Sequence
Multivariate Time Series Forecasting--Full Version [50.43914511877446]
本稿では,高い効率と精度を確保するために,三角形,可変特性に着目した注意点を提案する。
我々はTriformerが精度と効率の両方で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-28T20:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。