論文の概要: WDformer: A Wavelet-based Differential Transformer Model for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.25231v1
- Date: Thu, 25 Sep 2025 02:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.91131
- Title: WDformer: A Wavelet-based Differential Transformer Model for Time Series Forecasting
- Title(参考訳): WDformer: 時系列予測のためのウェーブレットに基づく微分変換器モデル
- Authors: Xiaojian Wang, Chaoli Zhang, Zhonglong Zheng, Yunliang Jiang,
- Abstract要約: 時系列予測には,気象降雨予測,交通流解析,財務予測,運用負荷監視など,さまざまな応用がある。
時系列データのばらつきのため、時間領域や周波数領域のモデリングのみに依存するため、モデルがマルチドメイン情報を十分に活用する能力は制限される。
我々は,ウェーブレットに基づく微分変換器モデルであるWDformerを提案し,時系列データの多分解能解析を行った。
- 参考スコア(独自算出の注目度): 21.222605948133893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting has various applications, such as meteorological rainfall prediction, traffic flow analysis, financial forecasting, and operational load monitoring for various systems. Due to the sparsity of time series data, relying solely on time-domain or frequency-domain modeling limits the model's ability to fully leverage multi-domain information. Moreover, when applied to time series forecasting tasks, traditional attention mechanisms tend to over-focus on irrelevant historical information, which may introduce noise into the prediction process, leading to biased results. We proposed WDformer, a wavelet-based differential Transformer model. This study employs the wavelet transform to conduct a multi-resolution analysis of time series data. By leveraging the advantages of joint representation in the time-frequency domain, it accurately extracts the key information components that reflect the essential characteristics of the data. Furthermore, we apply attention mechanisms on inverted dimensions, allowing the attention mechanism to capture relationships between multiple variables. When performing attention calculations, we introduced the differential attention mechanism, which computes the attention score by taking the difference between two separate softmax attention matrices. This approach enables the model to focus more on important information and reduce noise. WDformer has achieved state-of-the-art (SOTA) results on multiple challenging real-world datasets, demonstrating its accuracy and effectiveness. Code is available at https://github.com/xiaowangbc/WDformer.
- Abstract(参考訳): 時系列予測には,気象降雨予測,交通流解析,財務予測,各種システムの運用負荷監視など,様々な応用がある。
時系列データのばらつきのため、時間領域や周波数領域のモデリングのみに依存するため、モデルがマルチドメイン情報を十分に活用する能力は制限される。
さらに、時系列予測タスクに適用すると、従来の注意機構は関連のない歴史的情報に過度に焦点をあてる傾向にあり、予測プロセスにノイズを導入し、バイアスのある結果をもたらす可能性がある。
We proposed WDformer, a wavelet-based differential Transformer model。
本研究ではウェーブレット変換を用いて時系列データの多分解能解析を行う。
時間周波数領域における関節表現の利点を活用することにより、データの本質的特性を反映した重要な情報成分を正確に抽出する。
さらに、逆次元にアテンション機構を適用し、アテンション機構が複数の変数間の関係をキャプチャすることを可能にする。
注意計算を行う際には,2つのソフトマックス注意行列の差を計算して注意スコアを算出する差分注意機構を導入する。
このアプローチにより、モデルは重要な情報に集中し、ノイズを減らすことができる。
WDformerは、複数の挑戦的な実世界のデータセットに対して、その正確性と有効性を示す、最先端のSOTA(State-of-the-art)結果を達成した。
コードはhttps://github.com/xiaowangbc/WDformer.comで入手できる。
関連論文リスト
- MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - EDformer: Embedded Decomposition Transformer for Interpretable Multivariate Time Series Predictions [4.075971633195745]
本稿では,時系列予測タスクのための組込みトランス「EDformer」を提案する。
基本要素を変更することなく、Transformerアーキテクチャを再利用し、その構成部品の有能な機能について検討する。
このモデルは、複雑な実世界の時系列データセットの精度と効率の観点から、最先端の予測結果を得る。
論文 参考訳(メタデータ) (2024-12-16T11:13:57Z) - TimeSieve: Extracting Temporal Dynamics through Information Bottlenecks [31.10683149519954]
本稿では,時系列予測モデルTimeSieveを提案する。
提案手法では、ウェーブレット変換を用いて時系列データを前処理し、マルチスケールの特徴を効果的にキャプチャする。
本研究は,時系列予測における課題に対処するためのアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-07T15:58:12Z) - Attention as Robust Representation for Time Series Forecasting [23.292260325891032]
多くの実用化には時系列予測が不可欠である。
トランスフォーマーの重要な特徴、注意機構、データ表現を強化するために動的に埋め込みを融合させ、しばしば注意重みを副産物の役割に還元する。
提案手法は,時系列の主表現として注目重みを高くし,データポイント間の時間的関係を利用して予測精度を向上させる。
論文 参考訳(メタデータ) (2024-02-08T03:00:50Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。