論文の概要: A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2202.11402v1
- Date: Wed, 23 Feb 2022 10:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:47:03.139947
- Title: A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting
- Title(参考訳): 時系列予測のための変圧器に基づく差分注意融合モデル
- Authors: Benhan Li, Shengdong Du, Tianrui Li
- Abstract要約: 時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
- 参考スコア(独自算出の注目度): 4.666618110838523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is widely used in the fields of equipment life cycle
forecasting, weather forecasting, traffic flow forecasting, and other fields.
Recently, some scholars have tried to apply Transformer to time series
forecasting because of its powerful parallel training ability. However, the
existing Transformer methods do not pay enough attention to the small time
segments that play a decisive role in prediction, making it insensitive to
small changes that affect the trend of time series, and it is difficult to
effectively learn continuous time-dependent features. To solve this problem, we
propose a differential attention fusion model based on Transformer, which
designs the differential layer, neighbor attention, sliding fusion mechanism,
and residual layer on the basis of classical Transformer architecture.
Specifically, the differences of adjacent time points are extracted and focused
by difference and neighbor attention. The sliding fusion mechanism fuses
various features of each time point so that the data can participate in
encoding and decoding without losing important information. The residual layer
including convolution and LSTM further learns the dependence between time
points and enables our model to carry out deeper training. A large number of
experiments on three datasets show that the prediction results produced by our
method are favorably comparable to the state-of-the-art.
- Abstract(参考訳): 時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
近年,並列学習能力の強化により,時系列予測にトランスフォーマーを適用しようとする研究者が増えている。
しかし、既存の変圧器法は予測に決定的な役割を果たす小さな時間セグメントに十分な注意を払わず、時系列の傾向に影響を与える小さな変化に影響を受けず、連続時間依存の特徴を効果的に学習することは困難である。
そこで本研究では,従来のTransformerアーキテクチャに基づいて,差分層,隣接する注目層,すべり融合機構,残留層を設計したTransformerに基づく差分注意融合モデルを提案する。
具体的には, 隣接点の違いを抽出し, 差分と隣接点に着目した。
スライディングフュージョン機構は、データが重要な情報を失うことなくエンコードおよびデコードに参加することができるように、各時点の様々な特徴を融合する。
畳み込みとLSTMを含む残層は、更に時間点間の依存を学習し、我々のモデルがより深いトレーニングを行うことを可能にします。
3つのデータセットに対する多数の実験により,本手法が生成した予測結果が最先端の予測結果と好適に比較できることが示された。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - EdgeConvFormer: Dynamic Graph CNN and Transformer based Anomaly
Detection in Multivariate Time Series [7.514010315664322]
本研究では,階層化されたTime2vec埋め込み,動的グラフCNN,Transformerを統合し,グローバルかつ局所的な空間時間情報を抽出する新たな異常検出手法EdgeConvFormerを提案する。
実験により、EdgeConvFormerは、多変量時系列データから時空間モデリングを学習し、異なるスケールの多くの実世界のデータセットに対する最先端のアプローチよりも優れた異常検出性能を得ることができることが示された。
論文 参考訳(メタデータ) (2023-12-04T08:38:54Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。