論文の概要: Dualformer: Time-Frequency Dual Domain Learning for Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2601.15669v1
- Date: Thu, 22 Jan 2026 05:51:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.502686
- Title: Dualformer: Time-Frequency Dual Domain Learning for Long-term Time Series Forecasting
- Title(参考訳): Dualformer: 時系列予測のための時間周波数デュアルドメイン学習
- Authors: Jingjing Bai, Yoshinobu Kawahara,
- Abstract要約: トランスフォーマーベースのモデルは、その効果を制限する固有の低パスフィルタリング効果に悩まされる。
本稿では、レイヤの観点から周波数モデリングを再考する、原則化されたデュアルドメインフレームワークであるDualformerを提案する。
8つの広く使用されているベンチマークで実施されたテストは、Dualformerの堅牢性と優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 5.4806374384787695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based models, despite their promise for long-term time series forecasting (LTSF), suffer from an inherent low-pass filtering effect that limits their effectiveness. This issue arises due to undifferentiated propagation of frequency components across layers, causing a progressive attenuation of high-frequency information crucial for capturing fine-grained temporal variations. To address this limitation, we propose Dualformer, a principled dual-domain framework that rethinks frequency modeling from a layer-wise perspective. Dualformer introduces three key components: (1) a dual-branch architecture that concurrently models complementary temporal patterns in both time and frequency domains; (2) a hierarchical frequency sampling module that allocates distinct frequency bands to different layers, preserving high-frequency details in lower layers while modeling low-frequency trends in deeper layers; and (3) a periodicity-aware weighting mechanism that dynamically balances contributions from the dual branches based on the harmonic energy ratio of inputs, supported theoretically by a derived lower bound. This design enables structured frequency modeling and adaptive integration of time-frequency features, effectively preserving high-frequency information and enhancing generalization. Extensive experiments conducted on eight widely used benchmarks demonstrate Dualformer's robustness and superior performance, particularly on heterogeneous or weakly periodic data. Our code is publicly available at https://github.com/Akira-221/Dualformer.
- Abstract(参考訳): 変換器ベースのモデルは、長期時系列予測(LTSF)を約束しているにもかかわらず、その効果を制限する固有の低域フィルタリング効果に悩まされている。
この問題は、層をまたいだ周波数成分の未分化伝播が原因であり、微細な時間変動を捉えるのに不可欠な高周波情報の進行減衰を引き起こす。
この制限に対処するために、レイヤの観点から周波数モデリングを再考する原則化されたデュアルドメインフレームワークであるDualformerを提案する。
1)時間領域と周波数領域の相補的な時間パターンを同時にモデル化するデュアルブランチアーキテクチャ,(2)異なる周波数帯域を異なる層に割り当てる階層的な周波数サンプリングモジュール,(2)より深い層で低周波傾向をモデル化しながら下位層で高周波の詳細を保存する,(3)入力の高調波エネルギー比に基づいて二重枝からの寄与を動的にバランスする周期性重み付け機構,である。
この設計は、構造化周波数モデリングと時間周波数特徴の適応的統合を可能にし、高周波情報を効果的に保存し、一般化を向上する。
8つの広く使用されているベンチマークで実施された大規模な実験は、デュアルフォーマーの頑丈さと優れた性能、特に不均一または弱い周期的なデータについて示している。
私たちのコードはhttps://github.com/Akira-221/Dualformer.comで公開されています。
関連論文リスト
- M$^2$FMoE: Multi-Resolution Multi-View Frequency Mixture-of-Experts for Extreme-Adaptive Time Series Forecasting [6.89383702832204]
M$2$FMoEは、マルチレゾリューションとマルチビューの周波数モデリングにより、正規パターンと極端なパターンの両方を学ぶ。
極端なパターンを持つ実世界の水文科学データセットの実験は、M$2$FMoEが最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2026-01-13T15:05:49Z) - WaveTuner: Comprehensive Wavelet Subband Tuning for Time Series Forecasting [22.28753360953834]
本稿では、時系列予測のためのフルスペクトルサブバンドチューニングによるウェーブレット分解フレームワークを提案する。
WaveTunerは2つの主要なモジュールから構成される: (i) 時系列を時間周波数係数に変換するAdaptive Wavelet Refinementモジュール、(ii) 複数の機能分岐を利用するマルチブランチモジュール。
論文 参考訳(メタデータ) (2025-11-24T07:33:35Z) - WaveletDiff: Multilevel Wavelet Diffusion For Time Series Generation [15.28917997999402]
WaveletDiffは、時系列データ固有の多重解像度構造を利用するために、ウェーブレット係数上で拡散モデルを直接訓練する新しいフレームワークである。
最先端の時間領域と周波数領域の生成手法を5つの異なるパフォーマンス指標で比較すると、一貫して性能が向上する。
論文 参考訳(メタデータ) (2025-10-13T18:47:33Z) - A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Wavelet-Guided Dual-Frequency Encoding for Remote Sensing Change Detection [67.84730634802204]
リモートセンシング画像の変化検出は,自然災害監視,都市拡張追跡,インフラ管理など,さまざまな工学的応用において重要な役割を担っている。
既存のほとんどの手法は空間領域モデリングに依存しており、特徴表現の限られた多様性は微妙な変化領域の検出を妨げる。
本研究では、特にウェーブレット領域における周波数領域の特徴モデリングが周波数成分の微細な違いを増幅し、空間領域において捉えにくいエッジ変化の知覚を高めることを観察する。
論文 参考訳(メタデータ) (2025-08-07T11:14:16Z) - Efficient Dual-domain Image Dehazing with Haze Prior Perception [26.57698394898644]
トランスフォーマーベースのモデルは、シングルイメージのデハージングにおいて強力なグローバルモデリング能力を示すが、その高い計算コストはリアルタイム適用性を制限する。
そこで我々はDGFDNet(Dark Channel Guided Frequency-aware Dehazing Network)を提案する。
4つのベンチマークハウズデータセットの実験により、DGFDNetは、より優れた堅牢性とリアルタイム効率で最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-07-15T06:56:56Z) - Freqformer: Image-Demoiréing Transformer via Efficient Frequency Decomposition [83.40450475728792]
本稿では,Freqformerについて述べる。Freqformerは,ターゲット周波数分離による画像復号化に特化して設計されたトランスフォーマーベースのフレームワークである。
本手法は,モワールパターンを高周波数空間局在化テクスチャと低周波数スケールローバスト色歪みに明確に分割する有効な周波数分解を行う。
様々なデモアのベンチマーク実験により、Freqformerは、コンパクトなモデルサイズで最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-05-25T12:23:10Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - F3-Pruning: A Training-Free and Generalized Pruning Strategy towards
Faster and Finer Text-to-Video Synthesis [94.10861578387443]
変圧器と拡散モデルを用いた2つの主流T2Vモデルの推論過程について検討する。
本稿では、時間的余分な注意重みを突破するF3プルーニングと呼ばれるトレーニングフリーで一般化されたプルーニング戦略を提案する。
古典的なトランスフォーマーベースモデルCogVideoと典型的な拡散ベースモデルTune-A-Videoを用いた3つのデータセットの大規模な実験により、F3-Pruningの有効性が検証された。
論文 参考訳(メタデータ) (2023-12-06T12:34:47Z) - Dynamic Temporal Filtering in Video Models [128.02725199486719]
時間的特徴学習の新しいレシピである動的時間フィルタ(DTF)を提案する。
DTFは、その長距離時間ダイナミクスをモデル化するために、空間的位置ごとに特別な周波数フィルタを学習する。
DTFブロックをConvNetsとTransformerにプラグインすることで、DTF-NetとDTF-Transformerが得られる。
論文 参考訳(メタデータ) (2022-11-15T15:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。