論文の概要: An Integrated Neighborhood and Scale Information Network for Open-Pit Mine Change Detection in High-Resolution Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2403.15032v1
- Date: Fri, 22 Mar 2024 08:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 18:08:17.704177
- Title: An Integrated Neighborhood and Scale Information Network for Open-Pit Mine Change Detection in High-Resolution Remote Sensing Images
- Title(参考訳): 高解像度リモートセンシング画像における露天地雷変動検出のための総合的周辺・規模情報ネットワーク
- Authors: Zilin Xie, Kangning Li, Jinbao Jiang, Jinzhong Yang, Xiaojun Qiao, Deshuai Yuan, Cheng Nie,
- Abstract要約: 高分解能(HR)リモートセンシング画像における露天地雷変化検出(CD)は、鉱物開発と環境保護において重要な役割を担っている。
本稿では、HRリモートセンシング画像におけるオープンピットマイニングCDのためのINSINet(Integrated Neighborhood and Scale Information Network)を提案する。
- 参考スコア(独自算出の注目度): 0.3141085922386211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-pit mine change detection (CD) in high-resolution (HR) remote sensing images plays a crucial role in mineral development and environmental protection. Significant progress has been made in this field in recent years, largely due to the advancement of deep learning techniques. However, existing deep-learning-based CD methods encounter challenges in effectively integrating neighborhood and scale information, resulting in suboptimal performance. Therefore, by exploring the influence patterns of neighborhood and scale information, this paper proposes an Integrated Neighborhood and Scale Information Network (INSINet) for open-pit mine CD in HR remote sensing images. Specifically, INSINet introduces 8-neighborhood-image information to acquire a larger receptive field, improving the recognition of center image boundary regions. Drawing on techniques of skip connection, deep supervision, and attention mechanism, the multi-path deep supervised attention (MDSA) module is designed to enhance multi-scale information fusion and change feature extraction. Experimental analysis reveals that incorporating neighborhood and scale information enhances the F1 score of INSINet by 6.40%, with improvements of 3.08% and 3.32% respectively. INSINet outperforms existing methods with an Overall Accuracy of 97.69%, Intersection over Union of 71.26%, and F1 score of 83.22%. INSINet shows significance for open-pit mine CD in HR remote sensing images.
- Abstract(参考訳): 高分解能(HR)リモートセンシング画像における露天地雷変化検出(CD)は、鉱物開発と環境保護において重要な役割を担っている。
近年, 深層学習技術の進歩により, この分野に顕著な進展がみられた。
しかし、既存のディープラーニングベースのCD手法は、近隣情報とスケール情報を効果的に統合することの難しさに直面する。
そこで,本研究では,周辺地域と規模情報の影響パターンを探索し,HRリモートセンシング画像におけるオープンピットマイニングCDのためのINSINet(Integrated Neighborhood and Scale Information Network)を提案する。
特に,INSINetでは,中心画像境界領域の認識を向上し,より広い受容領域を取得するために,隣り合う8画像情報を導入している。
マルチパスディープ・アテンション(MDSA)モジュールは、スキップ接続、ディープ・インフォメーション・メカニズム、およびアテンション・メカニズムの技法に基づいて、マルチスケール情報融合と変更特徴抽出を強化するように設計されている。
実験分析によると、近隣情報と規模情報を組み合わせることで、INSINetのF1スコアが6.40%向上し、それぞれ3.08%と3.32%改善している。
INSINetは、全体の精度97.69%、連合のインターセクション71.26%、F1スコア83.22%で、既存の手法を上回っている。
INSINetは、HRリモートセンシング画像におけるオープンピットマイニングCDの重要性を示している。
関連論文リスト
- Bi-temporal Gaussian Feature Dependency Guided Change Detection in Remote Sensing Images [17.674955288033974]
変化検出 (CD) 法は, 多時間画像における領域情報の違いによる疑似変化の解決に依然として苦慮している。
この問題に対処するため、両時間ガウス分布特徴依存ネットワーク(BGFD)を提案する。
BGFDは擬似的変化を効果的に低減し、詳細情報の検出能力を高めた。
論文 参考訳(メタデータ) (2024-10-12T14:01:41Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Wavelet-based Bi-dimensional Aggregation Network for SAR Image Change Detection [53.842568573251214]
3つのSARデータセットによる実験結果から、我々のWBANetは現代最先端の手法を著しく上回っていることが明らかとなった。
我々のWBANetは、それぞれのデータセットで98.33%、96.65%、96.62%の正確な分類(PCC)を達成している。
論文 参考訳(メタデータ) (2024-07-18T04:36:10Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - Siamese Meets Diffusion Network: SMDNet for Enhanced Change Detection in
High-Resolution RS Imagery [7.767708235606408]
我々は,新しいネットワークであるSiamese-U2Net Feature Differential Meets Network (SMDNet)を提案する。
このネットワークは、画像エッジ変化検出の精度を向上させるために、Siam-U2Net Feature Differential (SU-FDE)とデノイング拡散暗黙モデルを組み合わせる。
特徴抽出モデルと拡散モデルを組み合わせることで,リモートセンシング画像における変化検出の有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T16:48:55Z) - BD-MSA: Body decouple VHR Remote Sensing Image Change Detection method
guided by multi-scale feature information aggregation [4.659935767219465]
リモートセンシング画像変化検出(RSCD)の目的は、同じ場所で撮影された両時間画像の違いを検出することである。
深層学習はRSCDタスクに広く使われており、結果認識の点で重要な結果をもたらしている。
論文 参考訳(メタデータ) (2024-01-09T02:53:06Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。