論文の概要: DMamba: Decomposition-enhanced Mamba for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2602.09081v1
- Date: Mon, 09 Feb 2026 18:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.184877
- Title: DMamba: Decomposition-enhanced Mamba for Time Series Forecasting
- Title(参考訳): DMamba: 時系列予測のための分解強化マンバ
- Authors: Ruxuan Chen, Fang Sun,
- Abstract要約: 時系列理論からの重要な観察は、相互変数関係の統計的性質がトレンドと季節成分の間で異なることである。
本稿では、このコンポーネント固有の特徴とアーキテクチャの複雑さを明確に整合させる新しい予測モデルDMambaを提案する。
- 参考スコア(独自算出の注目度): 1.4045922454551434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State Space Models (SSMs), particularly Mamba, have shown potential in long-term time series forecasting. However, existing Mamba-based architectures often struggle with datasets characterized by non-stationary patterns. A key observation from time series theory is that the statistical nature of inter-variable relationships differs fundamentally between the trend and seasonal components of a decomposed series. Trend relationships are often driven by a few common stochastic factors or long-run equilibria, suggesting that they reside on a lower-dimensional manifold. In contrast, seasonal relationships involve dynamic, high-dimensional interactions like phase shifts and amplitude co-movements, requiring more expressive modeling. In this paper, we propose DMamba, a novel forecasting model that explicitly aligns architectural complexity with this component-specific characteristic. DMamba employs seasonal-trend decomposition and processes the components with specialized, differentially complex modules: a variable-direction Mamba encoder captures the rich, cross-variable dynamics within the seasonal component, while a simple Multi-Layer Perceptron (MLP) suffices to learn from the lower-dimensional inter-variable relationships in the trend component. Extensive experiments on diverse datasets demonstrate that DMamba sets a new state-of-the-art (SOTA), consistently outperforming both recent Mamba-based architectures and leading decomposition-based models.
- Abstract(参考訳): 状態空間モデル(SSM)、特にマンバは長期の時系列予測の可能性を示している。
しかしながら、既存のMambaベースのアーキテクチャは、静止しないパターンを特徴とするデータセットに悩まされることが多い。
時系列理論からの重要な観察は、変数間の関係の統計的性質が、分解された系列の傾向と季節成分とに根本的に異なることである。
傾向関係は、しばしばいくつかの一般的な確率的因子または長期均衡によって駆動され、それらが下次元多様体上に存在することを示唆する。
対照的に、季節的な関係は、位相シフトや振幅コムーブメントのような動的で高次元的な相互作用を伴い、より表現力のあるモデリングを必要とする。
本稿では、このコンポーネント固有の特徴とアーキテクチャの複雑さを明確に整合させる新しい予測モデルDMambaを提案する。
変数指向のMambaエンコーダは、季節成分内のリッチでクロス変数のダイナミクスをキャプチャし、単純なMulti-Layer Perceptron(MLP)はトレンド成分の低次元の変数間の関係から学ぶのに十分である。
多様なデータセットに関する大規模な実験は、DMambaが新しい最先端(SOTA)を設定し、最近のMambaベースのアーキテクチャと主要な分解ベースのモデルの両方を一貫して上回っていることを示している。
関連論文リスト
- DeMa: Dual-Path Delay-Aware Mamba for Efficient Multivariate Time Series Analysis [22.768341734517815]
トランスフォーマーベースのモデルは、計算複雑性と高いメモリオーバーヘッドに悩まされる。
マンバは高い表現力を持つ有望な線形時間代替品として登場した。
DeMaはデュアルパス遅延対応のMambaバックボーンである。
論文 参考訳(メタデータ) (2026-01-09T04:54:56Z) - TSkel-Mamba: Temporal Dynamic Modeling via State Space Model for Human Skeleton-based Action Recognition [59.99922360648663]
TSkel-Mambaは、空間力学と時間力学の両方を効果的に捉えるハイブリッドトランスフォーマー-Mambaフレームワークである。
MTIモジュールはマルチスケールのCycle演算子を使用して、チャネル間の時間的相互作用をキャプチャする。
論文 参考訳(メタデータ) (2025-12-12T11:55:16Z) - Mamba or Transformer for Time Series Forecasting? Mixture of Universals (MoU) Is All You Need [28.301119776877822]
時系列予測には、正確な予測のために短期と長期の依存関係のバランスが必要である。
変換器は長期依存のモデリングに優れているが、2次計算コストで批判されている。
Mambaは、ほぼ直線的な代替手段を提供するが、潜在的な情報損失のため、時系列の長期予測では効果が低いと報告されている。
論文 参考訳(メタデータ) (2024-08-28T17:59:27Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Bi-Mamba+: Bidirectional Mamba for Time Series Forecasting [5.166854384000439]
長期時系列予測(LTSF)は、将来のトレンドとパターンに関するより長い洞察を提供する。
近年,Mamba という新しい状態空間モデル (SSM) が提案されている。
入力データに対する選択的機能とハードウェア対応並列計算アルゴリズムにより、Mambaは予測性能と計算効率のバランスをとる大きな可能性を示した。
論文 参考訳(メタデータ) (2024-04-24T09:45:48Z) - SST: Multi-Scale Hybrid Mamba-Transformer Experts for Time Series Forecasting [35.09857560516401]
Mambaのような状態空間モデル(SSM)は、注意せずに線形複雑性を達成することで有望な代替手段を提供する。
しかし、マンバは歴史的情報を固定サイズの潜伏状態に圧縮し、情報損失と表現効率の制限を引き起こす可能性がある。
時系列予測に効率的かつ効果的であるハイブリッドのMamba-Transformerアーキテクチャを設計できるだろうか?
本研究では,長距離パターンのMambaエキスパートと短期変動のTransformerエキスパートのマルチスケールハイブリッドモデルであるState Space Transformer (SST)を提案する。
論文 参考訳(メタデータ) (2024-04-23T05:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。