論文の概要: Adjacent-Level Feature Cross-Fusion With 3-D CNN for Remote Sensing
Image Change Detection
- arxiv url: http://arxiv.org/abs/2302.05109v2
- Date: Wed, 17 Jan 2024 05:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 22:04:41.239581
- Title: Adjacent-Level Feature Cross-Fusion With 3-D CNN for Remote Sensing
Image Change Detection
- Title(参考訳): リモートセンシング画像変化検出のための3次元CNNによる隣接レベルクロスフュージョン
- Authors: Yuanxin Ye, Mengmeng Wang, Liang Zhou, Guangyang Lei, Jianwei Fan, and
Yao Qin
- Abstract要約: AFCF3D-Netという名前の3次元畳み込みを伴う新しい近接レベル特徴融合ネットワークを提案する。
提案されたAFCF3D-Netは、3つの挑戦的なリモートセンシングCDデータセットで検証されている。
- 参考スコア(独自算出の注目度): 20.776673215108815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based change detection (CD) using remote sensing images has
received increasing attention in recent years. However, how to effectively
extract and fuse the deep features of bi-temporal images for improving the
accuracy of CD is still a challenge. To address that, a novel adjacent-level
feature fusion network with 3D convolution (named AFCF3D-Net) is proposed in
this article. First, through the inner fusion property of 3D convolution, we
design a new feature fusion way that can simultaneously extract and fuse the
feature information from bi-temporal images. Then, to alleviate the semantic
gap between low-level features and high-level features, we propose an
adjacent-level feature cross-fusion (AFCF) module to aggregate complementary
feature information between the adjacent levels. Furthermore, the full-scale
skip connection strategy is introduced to improve the capability of pixel-wise
prediction and the compactness of changed objects in the results. Finally, the
proposed AFCF3D-Net has been validated on the three challenging remote sensing
CD datasets: the Wuhan building dataset (WHU-CD), the LEVIR building dataset
(LEVIR-CD), and the Sun Yat-Sen University dataset (SYSU-CD). The results of
quantitative analysis and qualitative comparison demonstrate that the proposed
AFCF3D-Net achieves better performance compared to other state-of-the-art
methods. The code for this work is available at
https://github.com/wm-Githuber/AFCF3D-Net.
- Abstract(参考訳): 近年,リモートセンシング画像を用いた深層学習に基づく変化検出(CD)が注目されている。
しかし、CDの精度を向上させるために、両時間画像の深い特徴を効果的に抽出し、融合する方法は依然として課題である。
そこで本論文では, AFCF3D-Net と呼ばれる3次元畳み込みを伴う隣接レベル特徴融合ネットワークを提案する。
まず,3次元畳み込みの内的融合特性を用いて,両時間画像から特徴情報を同時に抽出・融合する特徴融合法を設計する。
そこで我々は,低レベル特徴と高レベル特徴のセマンティックギャップを軽減するために,隣接レベル特徴相互融合(AFCF)モジュールを提案し,隣接レベル間の相補的特徴情報を集約する。
さらに,実規模スキップ接続戦略を導入して,画素単位での予測能力と,変更対象のコンパクト性を向上させる。
最後に、提案されたAFCF3D-Netは、Wuhan building dataset(WHU-CD)、LEVIR building dataset(LEVIR-CD)、Sun Yat-Sen University dataset(SYSU-CD)の3つの挑戦的なリモートセンシングCDデータセットで検証されている。
定量的解析と定性比較の結果,提案したAFCF3D-Netは,他の最先端手法と比較して優れた性能を示すことが示された。
この作業のコードはhttps://github.com/wm-Githuber/AFCF3D-Netで公開されている。
関連論文リスト
- VoxelNextFusion: A Simple, Unified and Effective Voxel Fusion Framework
for Multi-Modal 3D Object Detection [33.46363259200292]
既存のボクセル法は、1対1で濃密な画像特徴を持つスパース・ボクセル特徴を融合する際の課題に直面する。
本稿では,VoxelNextFusionについて述べる。VoxelNextFusionは,Voxelベースの手法に特化して設計されたマルチモーダル3Dオブジェクト検出フレームワークである。
論文 参考訳(メタデータ) (2024-01-05T08:10:49Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Homogeneous Multi-modal Feature Fusion and Interaction for 3D Object
Detection [16.198358858773258]
マルチモーダル3D物体検出は、自律運転において活発な研究課題となっている。
スパース3D点と高密度2Dピクセルの相互特徴融合を探索するのは簡単ではない。
最近のアプローチでは、画像特徴と2次元画像平面に投影される点雲の特徴を融合させるか、スパース点雲と高密度画像画素を組み合わせるかのどちらかである。
論文 参考訳(メタデータ) (2022-10-18T06:15:56Z) - FFPA-Net: Efficient Feature Fusion with Projection Awareness for 3D
Object Detection [19.419030878019974]
構造化されていない3D点雲は2D平面に充填され、3D点雲はプロジェクション対応の畳み込み層を用いて高速に抽出される。
データ前処理において、異なるセンサ信号間の対応するインデックスを予め設定する。
2つの新しいプラグアンドプレイ融合モジュールLiCamFuseとBiLiCamFuseが提案されている。
論文 参考訳(メタデータ) (2022-09-15T16:13:19Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Dense Dilated Convolutions Merging Network for Land Cover Classification [8.932848548221532]
リモートセンシング画像のランドカバー分類は、限られた量の注釈付きデータのために難しい課題である。
本稿では,高密度拡張畳み込みネットワーク(DDCM-Net)と呼ばれる新しいアーキテクチャを提案する。
提案するDDCM-Netの有効性,堅牢性,柔軟性を,ISPRS Potsdam および Vaihingen データセット上で実証する。
論文 参考訳(メタデータ) (2020-03-09T10:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。