論文の概要: Adjacent-level Feature Cross-Fusion with 3D CNN for Remote Sensing Image
Change Detection
- arxiv url: http://arxiv.org/abs/2302.05109v1
- Date: Fri, 10 Feb 2023 08:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:22:29.197613
- Title: Adjacent-level Feature Cross-Fusion with 3D CNN for Remote Sensing Image
Change Detection
- Title(参考訳): リモートセンシング画像変化検出のための3次元CNNと隣接レベルのクロスフュージョン
- Authors: Yuanxin Ye, Mengmeng Wang, Liang Zhou, Guangyang Lei, Jianwei Fan, and
Yao Qin
- Abstract要約: 本稿では, AFCF3D-Net という名前の3次元畳み込みを伴う近接レベル特徴融合ネットワークを提案する。
提案したAFCF3D-Netは、3つの挑戦的なリモートセンシング変更検出データセットで検証されている。
- 参考スコア(独自算出の注目度): 12.908238387037088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based change detection using remote sensing images has received
increasing attention in recent years. However, how to effectively extract and
fuse the deep features of bi-temporal images to improve the accuracy of change
detection is still a challenge. To address that, a novel adjacent-level feature
fusion network with 3D convolution (named AFCF3D-Net) is proposed in this
article. First, through the inner fusion property of 3D convolution, we design
a new feature fusion way that can simultaneously extract and fuse the feature
information from bi-temporal images. Then, in order to bridge the semantic gap
between low-level features and high-level features, we propose an
adjacent-level feature cross-fusion (AFCF) module to aggregate complementary
feature information between the adjacent-levels. Furthermore, the densely skip
connection strategy is introduced to improve the capability of pixel-wise
prediction and compactness of changed objects in the results. Finally, the
proposed AFCF3D-Net has been validated on the three challenging remote sensing
change detection datasets: Wuhan building dataset (WHU-CD), LEVIR building
dataset (LEVIR-CD), and Sun Yat-Sen University (SYSU-CD). The results of
quantitative analysis and qualitative comparison demonstrate that the proposed
AFCF3D-Net achieves better performance compared to the other state-of-the-art
change detection methods.
- Abstract(参考訳): 近年,リモートセンシング画像を用いたディープラーニングに基づく変化検出が注目されている。
しかし、バイタイム画像の深い特徴を効果的に抽出・融合し、変化検出の精度を向上させる方法は依然として課題である。
そこで本論文では, AFCF3D-Net と呼ばれる3次元畳み込みを伴う隣接レベル特徴融合ネットワークを提案する。
まず,3次元畳み込みの内的融合特性を用いて,両時間画像から特徴情報を同時に抽出・融合する特徴融合法を設計する。
そこで我々は,低レベル特徴と高レベル特徴のセマンティックギャップを埋めるために,隣接レベル特徴の相互融合(AFCF)モジュールを提案する。
さらに、画素ワイズ予測能力と、変化したオブジェクトのコンパクト性を向上させるために、密スキップ接続戦略を導入する。
最後に、提案されたAFCF3D-Netは、Wuhan building dataset(WHU-CD)、LEVIR building dataset(LEVIR-CD)、Sun Yat-Sen University(SYSU-CD)の3つの挑戦的なリモートセンシング変更検出データセットで検証されている。
定量的解析と定性比較の結果,提案したAFCF3D-Netは,他の最先端変化検出手法と比較して性能が向上することが示された。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - VoxelNextFusion: A Simple, Unified and Effective Voxel Fusion Framework
for Multi-Modal 3D Object Detection [33.46363259200292]
既存のボクセル法は、1対1で濃密な画像特徴を持つスパース・ボクセル特徴を融合する際の課題に直面する。
本稿では,VoxelNextFusionについて述べる。VoxelNextFusionは,Voxelベースの手法に特化して設計されたマルチモーダル3Dオブジェクト検出フレームワークである。
論文 参考訳(メタデータ) (2024-01-05T08:10:49Z) - Homogeneous Multi-modal Feature Fusion and Interaction for 3D Object
Detection [16.198358858773258]
マルチモーダル3D物体検出は、自律運転において活発な研究課題となっている。
スパース3D点と高密度2Dピクセルの相互特徴融合を探索するのは簡単ではない。
最近のアプローチでは、画像特徴と2次元画像平面に投影される点雲の特徴を融合させるか、スパース点雲と高密度画像画素を組み合わせるかのどちらかである。
論文 参考訳(メタデータ) (2022-10-18T06:15:56Z) - FFPA-Net: Efficient Feature Fusion with Projection Awareness for 3D
Object Detection [19.419030878019974]
構造化されていない3D点雲は2D平面に充填され、3D点雲はプロジェクション対応の畳み込み層を用いて高速に抽出される。
データ前処理において、異なるセンサ信号間の対応するインデックスを予め設定する。
2つの新しいプラグアンドプレイ融合モジュールLiCamFuseとBiLiCamFuseが提案されている。
論文 参考訳(メタデータ) (2022-09-15T16:13:19Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。