論文の概要: 3D-SSM: A Novel 3D Selective Scan Module for Remote Sensing Change Detection
- arxiv url: http://arxiv.org/abs/2506.19263v1
- Date: Tue, 24 Jun 2025 02:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.452778
- Title: 3D-SSM: A Novel 3D Selective Scan Module for Remote Sensing Change Detection
- Title(参考訳): 3D-SSM:リモートセンシング変更検出のための新しい3D選択型スキャンモジュール
- Authors: Rui Huang, Jincheng Zeng, Sen Gao, Yan Xing,
- Abstract要約: 本研究では,空間面とチャネルの両面からグローバルな情報をキャプチャする3次元選択的スキャンモジュール(3D-SSM)を提案する。
本稿では,時間的相互作用モジュール (SIM) とマルチブランチ抽出モジュール (MBFEM) の2つの重要なコンポーネントについて述べる。
提案手法は,5つのベンチマークデータセットにおける時間変化検出手法と比較して,良好な性能を示す。
- 参考スコア(独自算出の注目度): 6.142826091422512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Mamba-based approaches in remote sensing change detection have enhanced scanning models, yet remain limited by their inability to capture long-range dependencies between image channels effectively, which restricts their feature representation capabilities. To address this limitation, we propose a 3D selective scan module (3D-SSM) that captures global information from both the spatial plane and channel perspectives, enabling a more comprehensive understanding of the data.Based on the 3D-SSM, we present two key components: a spatiotemporal interaction module (SIM) and a multi-branch feature extraction module (MBFEM). The SIM facilitates bi-temporal feature integration by enabling interactions between global and local features across images from different time points, thereby enhancing the detection of subtle changes. Meanwhile, the MBFEM combines features from the frequency domain, spatial domain, and 3D-SSM to provide a rich representation of contextual information within the image. Our proposed method demonstrates favourable performance compared to state-of-the-art change detection methods on five benchmark datasets through extensive experiments. Code is available at https://github.com/VerdantMist/3D-SSM
- Abstract(参考訳): リモートセンシング変更検出における既存のMambaベースのアプローチは、スキャンモデルを強化しているが、画像チャネル間の長距離依存関係を効果的にキャプチャできないため、特徴表現能力を制限している。
この制限に対処するため,空間平面とチャネルの両面からグローバルな情報をキャプチャし,より包括的なデータ理解を可能にする3次元選択的スキャンモジュール(3D-SSM)を提案し,その2つの重要なコンポーネントとして,時空間相互作用モジュール(SIM)とマルチブランチ特徴抽出モジュール(MBFEM)を提案する。
SIMは、時間点の異なる画像間のグローバルな特徴とローカルな特徴の相互作用を可能とし、微妙な変化の検出を強化することにより、時間的特徴の統合を促進する。
一方、MBFEMは、周波数領域、空間領域、および3D-SSMの特徴を組み合わせることで、画像内のコンテキスト情報のリッチな表現を提供する。
提案手法は,5つのベンチマークデータセットにおける最先端の変更検出手法と比較して,広範囲な実験により良好な性能を示す。
コードはhttps://github.com/VerdantMist/3D-SSMで入手できる。
関連論文リスト
- SSLFusion: Scale & Space Aligned Latent Fusion Model for Multimodal 3D Object Detection [24.367371441506116]
ディープニューラルネットワークに基づくマルチモーダル3Dオブジェクト検出は、確かに大きな進歩を遂げている。
しかし,2次元画像から抽出した特徴と3次元点雲から抽出した特徴との間の空間的情報とスケールのずれにより,依然として課題に直面している。
本稿では,3次元から2次元の空間アライメントモジュールと,遅延モードの相互融合モジュールからなる,新しいスケール・スペースアラインド・ラテントフュージョンモデルであるSSLFusionを紹介する。
論文 参考訳(メタデータ) (2025-04-07T15:15:06Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - STNet: Spatial and Temporal feature fusion network for change detection
in remote sensing images [5.258365841490956]
空間的・時間的特徴融合に基づくリモートセンシング変化検出ネットワークSTNetを提案する。
RSCDのための3つのベンチマークデータセットの実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2023-04-22T14:40:41Z) - Adjacent-Level Feature Cross-Fusion With 3-D CNN for Remote Sensing
Image Change Detection [20.776673215108815]
AFCF3D-Netという名前の3次元畳み込みを伴う新しい近接レベル特徴融合ネットワークを提案する。
提案されたAFCF3D-Netは、3つの挑戦的なリモートセンシングCDデータセットで検証されている。
論文 参考訳(メタデータ) (2023-02-10T08:21:01Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - Dense Deep Unfolding Network with 3D-CNN Prior for Snapshot Compressive
Imaging [6.289143409131908]
スナップショットイメージング(SCI)は、二次元カメラを介して3次元信号を記録することを目的としている。
SCI に先立って 3D-CNN を付加した新しい深層展開ネットワーク (DUN) を提案する。
ネットワーク適応を促進するために,高密度特徴写像圧縮 (DFMA) モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-14T09:42:42Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Segment as Points for Efficient Online Multi-Object Tracking and
Segmentation [66.03023110058464]
本稿では,コンパクトな画像表現を非秩序な2次元点クラウド表現に変換することで,セグメントに基づくインスタンス埋め込みの学習に有効な方法を提案する。
本手法は,画像ではなく,ランダムに選択された点から識別インスタンスの埋め込みを学習する,新たなトラッキング・バイ・ポイントのパラダイムを生成する。
PointTrackという名前のオンラインMOTSフレームワークは、最先端のすべてのメソッドを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-07-03T08:29:35Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。