論文の概要: DSAT-HD: Dual-Stream Adaptive Transformer with Hybrid Decomposition for Multivariate Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.24800v1
- Date: Mon, 29 Sep 2025 13:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.024585
- Title: DSAT-HD: Dual-Stream Adaptive Transformer with Hybrid Decomposition for Multivariate Time Series Forecasting
- Title(参考訳): DSAT-HD:多変量時系列予測のためのハイブリッド分解型デュアルストリーム適応変換器
- Authors: Zixu Wang, Hongbin Dong, Xiaoping Zhang,
- Abstract要約: 時系列予測は、天気、交通、電気、エネルギー予測など様々な用途に欠かせない。
既存のアプローチは、主に制限された時系列や固定スケールをモデル化し、さまざまな機能をさまざまな範囲にわたって捉えることがより困難になる。
本稿では,DSAT-HD(Hybrid Decomposition Dual-Stream Adaptive Transformer)を提案する。
- 参考スコア(独自算出の注目度): 14.708544628811381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is crucial for various applications, such as weather, traffic, electricity, and energy predictions. Currently, common time series forecasting methods are based on Transformers. However, existing approaches primarily model limited time series or fixed scales, making it more challenging to capture diverse features cross different ranges. Additionally, traditional methods like STL for complex seasonality-trend decomposition require pre-specified seasonal periods and typically handle only single, fixed seasonality. We propose the Hybrid Decomposition Dual-Stream Adaptive Transformer (DSAT-HD), which integrates three key innovations to address the limitations of existing methods: 1) A hybrid decomposition mechanism combining EMA and Fourier decomposition with RevIN normalization, dynamically balancing seasonal and trend components through noise Top-k gating; 2) A multi-scale adaptive pathway leveraging a sparse allocator to route features to four parallel Transformer layers, followed by feature merging via a sparse combiner, enhanced by hybrid attention combining local CNNs and global interactions; 3) A dual-stream residual learning framework where CNN and MLP branches separately process seasonal and trend components, coordinated by a balanced loss function minimizing expert collaboration variance. Extensive experiments on nine datasets demonstrate that DSAT-HD outperforms existing methods overall and achieves state-of-the-art performance on some datasets. Notably, it also exhibits stronger generalization capabilities across various transfer scenarios.
- Abstract(参考訳): 時系列予測は、天気、交通、電気、エネルギー予測など様々な用途に欠かせない。
現在、共通時系列予測法はTransformerをベースとしている。
しかし、既存のアプローチは主に制限された時系列や固定スケールをモデル化しており、多様な機能をさまざまな範囲にわたって捉えることはより困難である。
さらに、複雑な季節差分解のためのSTLのような伝統的な方法では、特定の季節周期が必要であり、通常は単一の季節差のみを扱う。
既存の手法の限界に対処する3つの重要なイノベーションを統合するハイブリッド・デコンポジション・デュアルストリーム適応変換器(DSAT-HD)を提案する。
1)EMAとフーリエ分解とRevIN正規化を組み合わせたハイブリッド分解機構 : ノイズトップクゲーティングによる季節・トレンド成分の動的バランス
2) スパースアロケータを利用して、4つの並列トランスフォーマー層に特徴をルーティングし、その後、スパースコンバインダを介して特徴をマージし、局所的なCNNとグローバルな相互作用を組み合わせたハイブリッドアテンションにより強化したマルチスケール適応経路。
3)CNNとMLPが個別に季節・トレンドコンポーネントを処理し、専門家のコラボレーションのばらつきを最小限に抑えるバランスの取れた損失関数で協調する2ストリーム残差学習フレームワーク。
9つのデータセットに対する大規模な実験は、DSAT-HDが既存のメソッドを全体として上回り、一部のデータセットで最先端のパフォーマンスを達成することを示した。
特に、様々な転送シナリオにまたがるより強力な一般化能力を示す。
関連論文リスト
- AdaMixT: Adaptive Weighted Mixture of Multi-Scale Expert Transformers for Time Series Forecasting [15.522567372502762]
AdaMixT (Adaptive Weighted Mixture of Multi-Scale Expert Transformers) という新しいアーキテクチャを提案する。
AdaMixTは様々なパッチを導入し、汎用事前訓練モデル(GPM)とドメイン固有モデル(DSM)の両方を活用してマルチスケールの特徴抽出を行う。
気象、交通、電気、ILI、および4つのETTデータセットを含む8つの広く使用されているベンチマークに関する総合的な実験は、一貫してAdaMixTの有効性を実証している。
論文 参考訳(メタデータ) (2025-09-09T15:30:53Z) - PFformer: A Position-Free Transformer Variant for Extreme-Adaptive Multivariate Time Series Forecasting [9.511600544581425]
PFformerは、単一ターゲットのMSS予測用に設計された、位置のないトランスフォーマーベースのモデルである。
PFformerは、EFE(Enhanced Feature-based Embedding)とAEE(Auto-Encoder-based Embedding)の2つの新しい埋め込み戦略を統合している。
論文 参考訳(メタデータ) (2025-02-27T22:21:27Z) - Ister: Inverted Seasonal-Trend Decomposition Transformer for Explainable Multivariate Time Series Forecasting [10.32586981170693]
Inverted Seasonal-Trend Decomposition Transformer (Ister)
本稿では,解釈可能性,計算効率,予測精度を向上させる新しいDotアテンション機構を提案する。
Isterはコンポーネントのコントリビューションを直感的に視覚化し、モデルの意思決定プロセスに光を流し、予測結果の透明性を高める。
論文 参考訳(メタデータ) (2024-12-25T06:37:19Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting [4.666618110838523]
時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
論文 参考訳(メタデータ) (2022-02-23T10:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。