論文の概要: DB2-TransF: All You Need Is Learnable Daubechies Wavelets for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2512.10051v1
- Date: Wed, 10 Dec 2025 20:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.045575
- Title: DB2-TransF: All You Need Is Learnable Daubechies Wavelets for Time Series Forecasting
- Title(参考訳): DB2-TransF:学習可能なDubechieウェーブレットは時系列予測に必要
- Authors: Moulik Gupta, Achyut Mani Tripathi,
- Abstract要約: DB2-TransFはトランスフォーマーにインスパイアされたアーキテクチャで、自己保持機構を学習可能なDubechiesウェーブレット係数層に置き換える。
13の標準予測ベンチマークの実験では、DB2-TransFは従来のトランスフォーマーと同等または優れた予測精度を達成している。
- 参考スコア(独自算出の注目度): 3.9332514832297676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting requires models that can efficiently capture complex temporal dependencies, especially in large-scale and high-dimensional settings. While Transformer-based architectures excel at modeling long-range dependencies, their quadratic computational complexity poses limitations on scalability and adaptability. To overcome these challenges, we introduce DB2-TransF, a novel Transformer-inspired architecture that replaces the self-attention mechanism with a learnable Daubechies wavelet coefficient layer. This wavelet-based module efficiently captures multi-scale local and global patterns and enhances the modeling of correlations across multiple time series for the time series forecasting task. Extensive experiments on 13 standard forecasting benchmarks demonstrate that DB2-TransF achieves comparable or superior predictive accuracy to conventional Transformers, while substantially reducing memory usage for the time series forecasting task. The obtained experimental results position DB2-TransF as a scalable and resource-efficient framework for advanced time series forecasting. Our code is available at https://github.com/SteadySurfdom/DB2-TransF
- Abstract(参考訳): 時系列予測には、特に大規模かつ高次元の設定において、複雑な時間的依存関係を効率的にキャプチャできるモデルが必要である。
Transformerベースのアーキテクチャは、長距離依存関係のモデリングに優れていますが、その2次計算の複雑さは、スケーラビリティと適応性に制限をもたらします。
これらの課題を克服するため,DB2-TransFは,自己保持機構を学習可能なDubechiesウェーブレット係数層に置き換える,トランスフォーマーにインスパイアされた新しいアーキテクチャである。
このウェーブレットベースのモジュールは、マルチスケールの局所パターンとグローバルパターンを効率的に捕捉し、時系列予測タスクのための複数の時系列間の相関関係のモデリングを強化する。
13の標準予測ベンチマークでの大規模な実験により、DB2-TransFは従来のトランスフォーマーと同等または優れた予測精度を達成し、時系列予測タスクのメモリ使用量を大幅に削減することを示した。
得られた実験結果は,DB2-TransFを高度時系列予測のためのスケーラブルで資源効率のよいフレームワークとして位置づけた。
私たちのコードはhttps://github.com/SteadySurfdom/DB2-TransFで利用可能です。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - FAITH: Frequency-domain Attention In Two Horizons for Time Series Forecasting [13.253624747448935]
時系列予測は、産業機器の保守、気象学、エネルギー消費、交通流、金融投資など、様々な分野で重要な役割を果たしている。
現在のディープラーニングベースの予測モデルは、予測結果と基礎的真実の間に大きな違いを示すことが多い。
本稿では、時系列をトレンドと季節成分に分解する2つのホライズンズにおける周波数領域注意モデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:37:02Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Mitigating Data Redundancy to Revitalize Transformer-based Long-Term Time Series Forecasting System [46.39662315849883]
本稿では,カリキュラム学習とメモリ駆動デコーダによる冗長性を緩和する新しいフレームワークであるCLMFormerを紹介する。
CLMFormerはTransformerベースのモデルを最大30%改善し、長距離予測の有効性を示している。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。