論文の概要: DC-Mamber: A Dual Channel Prediction Model based on Mamba and Linear Transformer for Multivariate Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2507.04381v1
- Date: Sun, 06 Jul 2025 12:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.151157
- Title: DC-Mamber: A Dual Channel Prediction Model based on Mamba and Linear Transformer for Multivariate Time Series Forecasting
- Title(参考訳): DC-Mamber:多変量時系列予測のためのマンバと線形変圧器に基づく二重チャネル予測モデル
- Authors: Bing Fan, Shusen Ma, Yun-Bo Zhao, Yu Kang,
- Abstract要約: 現在の主流モデルは主にTransformerと新しいMambaをベースにしている。
DC-Mamber は、時系列予測のためのMamba と linear Transformer に基づく二重チャネル予測モデルである。
8つの公開データセットの実験では、DC-Mamberの既存のモデルよりも優れた精度が確認されている。
- 参考スコア(独自算出の注目度): 6.238490256097465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multivariate time series forecasting (MTSF), existing strategies for processing sequences are typically categorized as channel-independent and channel-mixing. The former treats all temporal information of each variable as a token, focusing on capturing local temporal features of individual variables, while the latter constructs a token from the multivariate information at each time step, emphasizing the modeling of global temporal dependencies. Current mainstream models are mostly based on Transformer and the emerging Mamba. Transformers excel at modeling global dependencies through self-attention mechanisms but exhibit limited sensitivity to local temporal patterns and suffer from quadratic computational complexity, restricting their efficiency in long-sequence processing. In contrast, Mamba, based on state space models (SSMs), achieves linear complexity and efficient long-range modeling but struggles to aggregate global contextual information in parallel. To overcome the limitations of both models, we propose DC-Mamber, a dual-channel forecasting model based on Mamba and linear Transformer for time series forecasting. Specifically, the Mamba-based channel employs a channel-independent strategy to extract intra-variable features, while the Transformer-based channel adopts a channel-mixing strategy to model cross-timestep global dependencies. DC-Mamber first maps the raw input into two distinct feature representations via separate embedding layers. These representations are then processed by a variable encoder (built on Mamba) and a temporal encoder (built on linear Transformer), respectively. Finally, a fusion layer integrates the dual-channel features for prediction. Extensive experiments on eight public datasets confirm DC-Mamber's superior accuracy over existing models.
- Abstract(参考訳): 多変量時系列予測(MTSF)では、処理シーケンスの既存の戦略は通常、チャネル非依存およびチャネル混合に分類される。
前者は各変数の時間情報をトークンとして扱い、各変数の局所的な時間的特徴を捉え、後者は各時間ステップで多変量情報からトークンを構築し、グローバルな時間的依存関係のモデリングを強調する。
現在の主流モデルは主にTransformerと新しいMambaをベースにしている。
トランスフォーマーは自己アテンション機構を通じてグローバルな依存関係をモデル化するのに優れていますが、局所的な時間的パターンに対する感度に制限があり、2次計算の複雑さに悩まされ、長いシーケンス処理の効率が制限されます。
対照的に、状態空間モデル(SSM)に基づくMambaは、線形複雑性と効率的な長距離モデリングを実現するが、グローバルな文脈情報を並列に集約するのに苦労する。
両モデルの限界を克服するために,Mamba と linear Transformer に基づく時系列予測のための二重チャネル予測モデル DC-Mamber を提案する。
具体的には、Mambaベースのチャネルは、チャンネルに依存しない戦略を用いて、変数内の機能を抽出する一方、Transformerベースのチャネルは、チャンネルミキシング戦略を採用して、クロスタイムのグローバルな依存関係をモデル化する。
DC-Mamberはまず、生の入力を別々の埋め込み層を通して2つの異なる特徴表現にマッピングする。
これらの表現は、それぞれ変数エンコーダ(Mamba上に構築)と時間エンコーダ(線形トランスフォーマー上に構築)によって処理される。
最後に、融合層は予測のために二重チャネル機能を統合する。
8つの公開データセットに対する大規模な実験により、DC-Mamberの既存のモデルよりも優れた精度が確認された。
関連論文リスト
- Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations [2.4302562182247636]
私たちはTransformerアーキテクチャを再使用して、クロスタイムとクロス変数の依存関係の両方をモデル化します。
提案手法は13の実世界のデータセットにまたがって最先端のパフォーマンスを実現し,オリジナルモデルよりも最大20.7%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-05-01T04:59:05Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - A Hybrid Transformer-Mamba Network for Single Image Deraining [70.64069487982916]
既存のデラリング変換器では、固定レンジウィンドウやチャネル次元に沿って自己アテンション機構を採用している。
本稿では,多分岐型トランスフォーマー・マンバネットワーク(Transformer-Mamba Network,TransMamba Network,Transformer-Mamba Network)を提案する。
論文 参考訳(メタデータ) (2024-08-31T10:03:19Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Rough Transformers: Lightweight and Continuous Time Series Modelling through Signature Patching [46.58170057001437]
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
様々な時系列関連タスクにおいて、Rough Transformersはベニラアテンションよりも常に優れています。
論文 参考訳(メタデータ) (2024-05-31T14:00:44Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Bi-Mamba+: Bidirectional Mamba for Time Series Forecasting [5.166854384000439]
長期時系列予測(LTSF)は、将来のトレンドとパターンに関するより長い洞察を提供する。
近年,Mamba という新しい状態空間モデル (SSM) が提案されている。
入力データに対する選択的機能とハードウェア対応並列計算アルゴリズムにより、Mambaは予測性能と計算効率のバランスをとる大きな可能性を示した。
論文 参考訳(メタデータ) (2024-04-24T09:45:48Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。