論文の概要: Gather-Scatter Mamba: Accelerating Propagation with Efficient State Space Model
- arxiv url: http://arxiv.org/abs/2510.00862v1
- Date: Wed, 01 Oct 2025 13:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.573523
- Title: Gather-Scatter Mamba: Accelerating Propagation with Efficient State Space Model
- Title(参考訳): Gather-Scatter Mamba: 効率的な状態空間モデルによる伝播促進
- Authors: Hyun-kyu Ko, Youbin Kim, Jihyeon Park, Dongheok Park, Gyeongjin Kang, Wonjun Cho, Hyung Yi, Eunbyung Park,
- Abstract要約: ステート・スペース・モデル(SSM)は歴史的にシーケンシャル・モデリングにおいて中心的な役割を果たしてきた。
Mambaのような選択型SSMの最近の進歩は、魅力的な代替手段を提供する。
本研究では,空間的コンテキストアグリゲーションのためのシフトウィンドウ自己アテンションと,効率的な時間的伝搬のためのマンバ型選択走査を組み合わせたハイブリッドアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 15.551773379039675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State Space Models (SSMs)-most notably RNNs-have historically played a central role in sequential modeling. Although attention mechanisms such as Transformers have since dominated due to their ability to model global context, their quadratic complexity and limited scalability make them less suited for long sequences. Video super-resolution (VSR) methods have traditionally relied on recurrent architectures to propagate features across frames. However, such approaches suffer from well-known issues including vanishing gradients, lack of parallelism, and slow inference speed. Recent advances in selective SSMs like Mamba offer a compelling alternative: by enabling input-dependent state transitions with linear-time complexity, Mamba mitigates these issues while maintaining strong long-range modeling capabilities. Despite this potential, Mamba alone struggles to capture fine-grained spatial dependencies due to its causal nature and lack of explicit context aggregation. To address this, we propose a hybrid architecture that combines shifted window self-attention for spatial context aggregation with Mamba-based selective scanning for efficient temporal propagation. Furthermore, we introduce Gather-Scatter Mamba (GSM), an alignment-aware mechanism that warps features toward a center anchor frame within the temporal window before Mamba propagation and scatters them back afterward, effectively reducing occlusion artifacts and ensuring effective redistribution of aggregated information across all frames. The official implementation is provided at: https://github.com/Ko-Lani/GSMamba.
- Abstract(参考訳): ステート・スペース・モデル(SSM)は歴史的にシーケンシャル・モデリングにおいて中心的な役割を果たしてきた。
トランスフォーマーのようなアテンションメカニズムは、グローバルコンテキストをモデル化する能力によって支配的になったが、その2次複雑さとスケーラビリティの制限により、長いシーケンスには適さない。
ビデオ超解像法(VSR)は伝統的にフレーム間の機能を伝達するために繰り返しアーキテクチャに依存してきた。
しかし、このようなアプローチは、勾配の消失、並列性の欠如、推論速度の遅さなど、よく知られた問題に悩まされている。
Mambaのような選択型SSMの最近の進歩は、線形時間複雑性を伴う入力依存状態遷移を可能にすることで、強力な長距離モデリング能力を保ちながらこれらの問題を緩和する、魅力的な代替手段を提供する。
この可能性にもかかわらず、マンバは因果性や明示的な文脈アグリゲーションの欠如により、きめ細かい空間依存を捉えるのに苦労している。
そこで本稿では,空間的コンテキストアグリゲーションのためのシフトウィンドウ自己アテンションと,効率的な時間的伝搬のためのMambaベースの選択的走査を組み合わせたハイブリッドアーキテクチャを提案する。
さらに,ガンザ・散乱マンバ (GSM) は,マンバ伝搬前の時間窓の中央アンカーフレームに特徴をワープし,その後に散布するアライメント・アライメント・アウェアメント機構を導入し,閉塞アーティファクトを効果的に低減し,集約された情報を全フレームにわたって効果的に再分配する機構である。
公式実装は、https://github.com/Ko-Lani/GSMamba.comで提供されている。
関連論文リスト
- Trajectory-aware Shifted State Space Models for Online Video Super-Resolution [57.87099307245989]
本稿では、トラジェクトリ対応シフトSSM(TS-Mamba)に基づく新しいオンラインVSR手法を提案する。
TS-Mambaは、最初にビデオ内の軌跡を構築し、以前のフレームから最もよく似たトークンを選択する。
私たちのTS-Mambaは、ほとんどのケースで最先端のパフォーマンスを実現し、22.7%以上の削減複雑性(MAC)を実現しています。
論文 参考訳(メタデータ) (2025-08-14T08:42:15Z) - EventMamba: Enhancing Spatio-Temporal Locality with State Space Models for Event-Based Video Reconstruction [66.84997711357101]
EventMambaは、イベントベースのビデオ再構成タスク用に設計された、特殊なモデルである。
EventMambaは、Transformerベースの方法と比較して、優れた視覚的品質を提供しながら、スピードを著しく向上させる。
論文 参考訳(メタデータ) (2025-03-25T14:46:45Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。