論文の概要: Multi-Order Wavelet Derivative Transform for Deep Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2505.11781v1
- Date: Sat, 17 May 2025 01:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.844447
- Title: Multi-Order Wavelet Derivative Transform for Deep Time Series Forecasting
- Title(参考訳): 深部時系列予測のための多階ウェーブレット微分変換
- Authors: Ziyu Zhou, Jiaxi Hu, Qingsong Wen, James T. Kwok, Yuxuan Liang,
- Abstract要約: 我々はWDT(Walterlet Derivative Transform)を導入し、全体的な傾向と微妙な変動にまたがる時間認識パターンの抽出を可能にする。
実際に、WDTをWaveTSという名前のマルチブランチフレームワークに組み込み、入力系列をマルチスケールの時間周波数係数に分解し、線形層を介してそれらを洗練し、逆WDTを介して時間領域に再構成する。
10のベンチマークデータセットの実験では、WaveTSは高い計算効率を維持しながら最先端の予測精度を達成している。
- 参考スコア(独自算出の注目度): 40.57415617022347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In deep time series forecasting, the Fourier Transform (FT) is extensively employed for frequency representation learning. However, it often struggles in capturing multi-scale, time-sensitive patterns. Although the Wavelet Transform (WT) can capture these patterns through frequency decomposition, its coefficients are insensitive to change points in time series, leading to suboptimal modeling. To mitigate these limitations, we introduce the multi-order Wavelet Derivative Transform (WDT) grounded in the WT, enabling the extraction of time-aware patterns spanning both the overall trend and subtle fluctuations. Compared with the standard FT and WT, which model the raw series, the WDT operates on the derivative of the series, selectively magnifying rate-of-change cues and exposing abrupt regime shifts that are particularly informative for time series modeling. Practically, we embed the WDT into a multi-branch framework named WaveTS, which decomposes the input series into multi-scale time-frequency coefficients, refines them via linear layers, and reconstructs them into the time domain via the inverse WDT. Extensive experiments on ten benchmark datasets demonstrate that WaveTS achieves state-of-the-art forecasting accuracy while retaining high computational efficiency.
- Abstract(参考訳): 深層時系列予測では、フーリエ変換(FT)が周波数表現学習に広く用いられている。
しかし、それはしばしば、マルチスケールで時間に敏感なパターンをキャプチャするのに苦労する。
ウェーブレット変換(WT)は周波数分解によってこれらのパターンを捉えることができるが、その係数は時系列の点の変化に敏感であり、準最適モデリングに繋がる。
これらの制約を緩和するために、WTに基盤を置くマルチオーダーのウェーブレット微分変換(WDT)を導入し、全体的な傾向と微妙な変動の両方にまたがる時間認識パターンの抽出を可能にする。
原シリーズをモデル化する標準FTやWTと比較すると、WDTはシリーズの微分を演算し、変更の頻度を選択的に拡大し、時系列モデリングに特に有用な急激な規則シフトを露呈する。
実際に、WDTをWaveTSという名前のマルチブランチフレームワークに組み込み、入力系列をマルチスケールの時間周波数係数に分解し、線形層を介してそれらを洗練し、逆WDTを介して時間領域に再構成する。
10のベンチマークデータセットに対する大規模な実験は、WaveTSが高い計算効率を維持しながら最先端の予測精度を達成することを示した。
関連論文リスト
- MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Deep Frequency Derivative Learning for Non-stationary Time Series Forecasting [12.989064148254936]
非定常時系列予測のためのディープ周波数微分学習フレームワークDERITSを提案する。
具体的には、DERITSは、新しい可逆変換、すなわち周波数微分変換(FDT)に基づいて構築される。
論文 参考訳(メタデータ) (2024-06-29T17:56:59Z) - Multi-resolution Time-Series Transformer for Long-term Forecasting [24.47302799009906]
様々な時間パターンを異なる解像度で同時モデリングするための新しいフレームワークMTST(Multi- resolution Time-Series Transformer)を提案する。
多くの既存の時系列変換器とは対照的に、異なるスケールで周期成分を抽出するのに適する相対的な位置符号化を用いる。
論文 参考訳(メタデータ) (2023-11-07T17:18:52Z) - WFTNet: Exploiting Global and Local Periodicity in Long-term Time Series
Forecasting [61.64303388738395]
本稿では,長期連続予測のためのWavelet-Fourier Transform Network (WFTNet)を提案する。
さまざまな時系列データセットのテストでは、WFTNetは他の最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-20T13:44:18Z) - A Joint Time-frequency Domain Transformer for Multivariate Time Series
Forecasting [7.501660339993144]
本稿では、JTFT(Joint Time-Frequency Domain Transformer)を紹介する。
JTFTは時間と周波数領域の表現を組み合わせて予測を行う。
6つの実世界のデータセットの実験結果から、JTFTは予測性能において最先端のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-05-24T02:37:23Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。