論文の概要: AtrousMamaba: An Atrous-Window Scanning Visual State Space Model for Remote Sensing Change Detection
- arxiv url: http://arxiv.org/abs/2507.16172v1
- Date: Tue, 22 Jul 2025 02:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.935884
- Title: AtrousMamaba: An Atrous-Window Scanning Visual State Space Model for Remote Sensing Change Detection
- Title(参考訳): AtrousMamaba:リモートセンシング変更検出のためのアトラスウィンド走査型ビジュアルステートスペースモデル
- Authors: Tao Wang, Tiecheng Bai, Chao Xu, Bin Liu, Erlei Zhang, Jiyun Huang, Hongming Zhang,
- Abstract要約: 本稿では,グローバルな文脈情報の統合と微粒な局所的詳細情報の抽出のバランスをとる新しいモデルであるAtrousMambaを提案する。
AWVSS(Atrous window scan visual state space)モジュールを活用することで、バイナリチェンジ検出(BCD)とセマンティックチェンジ検出(SCD)のためのエンド・ツー・エンドのMambaベースのフレームワークを設計する。
6つのベンチマークデータセットの実験結果は、提案フレームワークが既存のCNNベース、Transformerベース、Mambaベースの手法より優れていることを示している。
- 参考スコア(独自算出の注目度): 29.004019252136565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, a novel visual state space (VSS) model, referred to as Mamba, has demonstrated significant progress in modeling long sequences with linear complexity, comparable to Transformer models, thereby enhancing its adaptability for processing visual data. Although most methods aim to enhance the global receptive field by directly modifying Mamba's scanning mechanism, they tend to overlook the critical importance of local information in dense prediction tasks. Additionally, whether Mamba can effectively extract local features as convolutional neural networks (CNNs) do remains an open question that merits further investigation. In this paper, We propose a novel model, AtrousMamba, which effectively balances the extraction of fine-grained local details with the integration of global contextual information. Specifically, our method incorporates an atrous-window selective scan mechanism, enabling a gradual expansion of the scanning range with adjustable rates. This design shortens the distance between adjacent tokens, enabling the model to effectively capture fine-grained local features and global context. By leveraging the atrous window scan visual state space (AWVSS) module, we design dedicated end-to-end Mamba-based frameworks for binary change detection (BCD) and semantic change detection (SCD), referred to as AWMambaBCD and AWMambaSCD, respectively. Experimental results on six benchmark datasets show that the proposed framework outperforms existing CNN-based, Transformer-based, and Mamba-based methods. These findings clearly demonstrate that Mamba not only captures long-range dependencies in visual data but also effectively preserves fine-grained local details.
- Abstract(参考訳): 近年、Mambaと呼ばれる新しいビジュアル状態空間(VSS)モデルが、トランスフォーマーモデルに匹敵する線形複雑で長いシーケンスをモデル化し、視覚データ処理への適応性を向上している。
ほとんどの方法は、マンバの走査機構を直接修正することで、グローバルな受容領域を強化することを目的としているが、密集した予測タスクにおいて、局所的な情報の重要性を無視する傾向にある。
さらに、Mambaが畳み込みニューラルネットワーク(CNN)として局所的な特徴を効果的に抽出できるかどうかは、さらなる調査に役立つオープンな疑問である。
本稿では,グローバルな文脈情報の統合と局所的詳細の抽出を効果的にバランスさせる新しいモデルであるAtrousMambaを提案する。
具体的には,アラスウインドウ選択走査機構を組み込んで,調整可能な速度でスキャン範囲の段階的拡大を可能にする。
この設計は、隣接するトークン間の距離を短縮し、モデルが局所的な微細な特徴とグローバルなコンテキストを効果的にキャプチャすることを可能にする。
本研究では, AWMambaBCD と AWMambaSCD と呼ばれる2値変化検出 (BCD) と意味変化検出 (SCD) のための専用フレームワークを設計した。
6つのベンチマークデータセットの実験結果は、提案フレームワークが既存のCNNベース、Transformerベース、Mambaベースの手法より優れていることを示している。
これらの結果は,マンバが視覚データの長距離依存を捉えているだけでなく,局所的な細部を効果的に保存していることを示している。
関連論文リスト
- MambaOutRS: A Hybrid CNN-Fourier Architecture for Remote Sensing Image Classification [4.14360329494344]
リモートセンシング画像分類のための新しいハイブリッド畳み込みアーキテクチャであるMambaOutRSを紹介する。
MambaOutRSは、局所的な特徴抽出のためにスタック化されたGated CNNブロック上に構築され、新しいFourier Filter Gate (FFG)モジュールが導入されている。
論文 参考訳(メタデータ) (2025-06-24T12:20:11Z) - RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement [59.364418120895]
水中画像強調(UIE)は、海洋視覚応用のための重要な前処理ステップである。
実効UIE(RD-UIE)のための新しい関係駆動型マンバフレームワークを開発した。
水中強化ベンチマークの実験では、RD-UIEは最先端のアプローチであるWMambaよりも優れていた。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - DefMamba: Deformable Visual State Space Model [65.50381013020248]
我々はDefMambaと呼ばれる新しい視覚基盤モデルを提案する。
変形性スキャン(DS)戦略を組み合わせることで、画像構造を学習し、オブジェクトの細部の変化を検出する能力を大幅に向上する。
多くの実験により、DefMambaは様々な視覚的タスクで最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2025-04-08T08:22:54Z) - VADMamba: Exploring State Space Models for Fast Video Anomaly Detection [4.874215132369157]
VQ-Mamba Unet(VQ-MaU)フレームワークには、Vector Quantization(VQ)層と、Mambaベースの非負のVisual State Space(NVSS)ブロックが組み込まれている。
提案するVADMambaの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2025-03-27T05:38:12Z) - GLADMamba: Unsupervised Graph-Level Anomaly Detection Powered by Selective State Space Model [4.4735289317146405]
GLADMambaは、選択状態空間モデルを UGLAD フィールドに適応させる新しいフレームワークである。
我々の知る限りでは、マンバと明示的なスペクトル情報を UGLAD に導入するのはこれが初めてである。
論文 参考訳(メタデータ) (2025-03-23T02:40:17Z) - 2DMCG:2DMambawith Change Flow Guidance for Change Detection in Remote Sensing [4.18306618346671]
本稿では、2次元空間情報をキャプチャする能力を高めるビジョンマンバ変種に基づく効率的なフレームワークを提案する。
このフレームワークは、2DMambaエンコーダを使用して、多時間画像からグローバルなコンテキスト空間情報を効果的に学習する。
ベンチマークデータセットの実験は、最先端の手法と比較して、我々のフレームワークの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-01T14:55:13Z) - DAMamba: Vision State Space Model with Dynamic Adaptive Scan [51.81060691414399]
状態空間モデル(SSM)は近年、コンピュータビジョンにおいて大きな注目を集めている。
スキャン順序と領域を適応的に割り当てるデータ駆動型動的適応スキャン(DAS)を提案する。
DASをベースとしたビジョンバックボーンDAMambaの提案は,現在のビジョンタスクにおけるMambaモデルよりもはるかに優れている。
論文 参考訳(メタデータ) (2025-02-18T08:12:47Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - MambaVT: Spatio-Temporal Contextual Modeling for robust RGB-T Tracking [51.28485682954006]
本研究では,マンバをベースとした純フレームワーク(MambaVT)を提案する。
具体的には、長距離クロスフレーム統合コンポーネントを考案し、ターゲットの外観変化にグローバルに適応する。
実験では、RGB-TトラッキングのためのMambaのビジョンの可能性が示され、MambaVTは4つの主要なベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-15T02:29:00Z) - CDMamba: Incorporating Local Clues into Mamba for Remote Sensing Image Binary Change Detection [30.387208446303944]
我々はCDMambaと呼ばれるモデルを提案し、これはバイナリCDタスクを扱うためのグローバル機能とローカル機能とを効果的に組み合わせている。
具体的には,Mambaのグローバルな特徴抽出と畳み込みによる局所的詳細化に活用するために,Scaled ResidualMambaブロックを提案する。
論文 参考訳(メタデータ) (2024-06-06T16:04:30Z) - MiM-ISTD: Mamba-in-Mamba for Efficient Infrared Small Target Detection [72.46396769642787]
ネスト構造であるMamba-in-Mamba(MiM-ISTD)を開発した。
MiM-ISTDはSOTA法より8倍高速で、2048×2048$のイメージでテストすると、GPUメモリ使用率を62.2$%削減する。
論文 参考訳(メタデータ) (2024-03-04T15:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。