論文の概要: LCD-Net: A Lightweight Remote Sensing Change Detection Network Combining Feature Fusion and Gating Mechanism
- arxiv url: http://arxiv.org/abs/2410.11580v1
- Date: Mon, 14 Oct 2024 10:33:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:03:46.499535
- Title: LCD-Net: A Lightweight Remote Sensing Change Detection Network Combining Feature Fusion and Gating Mechanism
- Title(参考訳): LCD-Net:特徴融合とゲーティング機構を組み合わせた軽量リモートセンシング変更検出ネットワーク
- Authors: Wenyu Liu, Jindong Li, Haoji Wang, Run Tan, Yali Fu, Qichuan Tian,
- Abstract要約: リモートセンシング画像変化検出(RSCD)は動的表面変化の監視に不可欠である。
従来のCNNベースの手法は、高い計算複雑性と大きなパラメータ数に悩まされている。
本稿では,高検出性能を維持しつつ,モデルサイズと計算コストを低減する軽量な変更検出ネットワーク(LCD-Net)を提案する。
- 参考スコア(独自算出の注目度): 6.5655751924536006
- License:
- Abstract: Remote sensing image change detection (RSCD) is crucial for monitoring dynamic surface changes, with applications ranging from environmental monitoring to disaster assessment. While traditional CNN-based methods have improved detection accuracy, they often suffer from high computational complexity and large parameter counts, limiting their use in resource-constrained environments. To address these challenges, we propose a Lightweight remote sensing Change Detection Network (LCD-Net in short) that reduces model size and computational cost while maintaining high detection performance. LCD-Net employs MobileNetV2 as the encoder to efficiently extract features from bitemporal images. A Temporal Interaction and Fusion Module (TIF) enhances the interaction between bitemporal features, improving temporal context awareness. Additionally, the Feature Fusion Module (FFM) aggregates multiscale features to better capture subtle changes while suppressing background noise. The Gated Mechanism Module (GMM) in the decoder further enhances feature learning by dynamically adjusting channel weights, emphasizing key change regions. Experiments on LEVIR-CD+, SYSU, and S2Looking datasets show that LCD-Net achieves competitive performance with just 2.56M parameters and 4.45G FLOPs, making it well-suited for real-time applications in resource-limited settings. The code is available at https://github.com/WenyuLiu6/LCD-Net.
- Abstract(参考訳): リモートセンシング画像変化検出(RSCD)は,環境モニタリングから災害評価に至るまで,動的表面変化の監視に不可欠である。
従来のCNNベースの手法では検出精度が向上するが、しばしば計算の複雑さとパラメータ数の増大に悩まされ、リソース制約のある環境での使用が制限される。
これらの課題に対処するために,高検出性能を維持しつつ,モデルサイズと計算コストを低減できる軽量リモートセンシング変更検出ネットワーク(LCD-Net)を提案する。
LCD-Netは、バイテンポラル画像から効率的に特徴を抽出するために、MobileNetV2をエンコーダとして使用している。
時間的相互作用と融合モジュール(TIF)は、時間的特徴間の相互作用を強化し、時間的文脈認識を改善する。
さらに、Feature Fusion Module (FFM)は、バックグラウンドノイズを抑えながら微妙な変更を捉えるために、マルチスケールの機能を集約する。
デコーダのゲート機構モジュール(GMM)は、チャネル重みを動的に調整し、キー変更領域を強調することで特徴学習をさらに強化する。
LEVIR-CD+、SYSU、S2データセットの実験では、LCD-Netはわずか2.56Mパラメータと4.45G FLOPsで競合性能を達成しており、リソース制限設定のリアルタイムアプリケーションに適している。
コードはhttps://github.com/WenyuLiu6/LCD-Netで公開されている。
関連論文リスト
- EfficientCD: A New Strategy For Change Detection Based With Bi-temporal Layers Exchanged [3.3885253104046993]
本稿では,リモートセンシング画像変化検出のためのEfficientCDという新しいディープラーニングフレームワークを提案する。
このフレームワークは機能抽出のバックボーンネットワークとしてEfficientNetを使用している。
EfficientCDは4つのリモートセンシングデータセットで実験的に検証されている。
論文 参考訳(メタデータ) (2024-07-22T19:11:50Z) - Relating CNN-Transformer Fusion Network for Change Detection [23.025190360146635]
RCTNetは、空間的特徴と時間的特徴の両方を利用する早期融合バックボーンを導入した。
実験では、従来のRS画像CD法よりもRCTNetの方が明らかに優れていることを示した。
論文 参考訳(メタデータ) (2024-07-03T14:58:40Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - Siamese Meets Diffusion Network: SMDNet for Enhanced Change Detection in
High-Resolution RS Imagery [7.767708235606408]
我々は,新しいネットワークであるSiamese-U2Net Feature Differential Meets Network (SMDNet)を提案する。
このネットワークは、画像エッジ変化検出の精度を向上させるために、Siam-U2Net Feature Differential (SU-FDE)とデノイング拡散暗黙モデルを組み合わせる。
特徴抽出モデルと拡散モデルを組み合わせることで,リモートセンシング画像における変化検出の有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T16:48:55Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Efficient Two-Stream Network for Violence Detection Using Separable
Convolutional LSTM [0.0]
Separable Convolutional LSTM(SepConvLSTM)と予め訓練されたMobileNetを活用した効率的な2ストリームディープラーニングアーキテクチャを提案する。
SepConvLSTMは、ConvLSTMの各ゲートの畳み込み操作を深さ方向に分離可能な畳み込みに置き換えて構築されます。
我々のモデルは、大きくて挑戦的なrwf-2000データセットの精度を2%以上上回っている。
論文 参考訳(メタデータ) (2021-02-21T12:01:48Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。