論文の概要: Robust Registration of Multimodal Remote Sensing Images Based on
Structural Similarity
- arxiv url: http://arxiv.org/abs/2103.16871v1
- Date: Wed, 31 Mar 2021 07:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:34:24.056408
- Title: Robust Registration of Multimodal Remote Sensing Images Based on
Structural Similarity
- Title(参考訳): 構造的類似性に基づくマルチモーダルリモートセンシング画像のロバスト登録
- Authors: Yuanxin Ye, Jie Shan, Lorenzo Bruzzone, and Li Shen
- Abstract要約: 本稿では,Histogram of Orientated Phase Congruency (HOPC) という特徴記述子を提案する。
HOPCはイメージの構造特性に基づいています。
HOPCnccという類似度メトリックが定義され、マルチモーダル登録のためにHOPCディスクリプタの正規化相関係数(NCC)を使用する。
- 参考スコア(独自算出の注目度): 11.512088109547294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic registration of multimodal remote sensing data (e.g., optical,
LiDAR, SAR) is a challenging task due to the significant non-linear radiometric
differences between these data. To address this problem, this paper proposes a
novel feature descriptor named the Histogram of Orientated Phase Congruency
(HOPC), which is based on the structural properties of images. Furthermore, a
similarity metric named HOPCncc is defined, which uses the normalized
correlation coefficient (NCC) of the HOPC descriptors for multimodal
registration. In the definition of the proposed similarity metric, we first
extend the phase congruency model to generate its orientation representation,
and use the extended model to build HOPCncc. Then a fast template matching
scheme for this metric is designed to detect the control points between images.
The proposed HOPCncc aims to capture the structural similarity between images,
and has been tested with a variety of optical, LiDAR, SAR and map data. The
results show that HOPCncc is robust against complex non-linear radiometric
differences and outperforms the state-of-the-art similarities metrics (i.e.,
NCC and mutual information) in matching performance. Moreover, a robust
registration method is also proposed in this paper based on HOPCncc, which is
evaluated using six pairs of multimodal remote sensing images. The experimental
results demonstrate the effectiveness of the proposed method for multimodal
image registration.
- Abstract(参考訳): マルチモーダルリモートセンシングデータの自動登録(光、LiDAR、SARなど)は、これらのデータ間の重要な非線形ラジオメトリック差のために難しい課題である。
本稿では,この問題を解決するために,画像の構造特性に基づく,向き付け位相合同のヒストグラム(hopc)と呼ばれる新しい特徴記述子を提案する。
さらに,HOPC記述子の正規化相関係数(NCC)をマルチモーダル登録に用いるHOPCnccという類似度尺度が定義される。
提案した類似度尺度の定義では、まず位相合同モデルを拡張して、その配向表現を生成し、拡張モデルを用いてHOPCnccを構築する。
次に、画像間の制御点を検出するために、このメトリックの高速テンプレートマッチングスキームを設計する。
提案したHOPCnccは、画像間の構造的類似性を捉えることを目的としており、様々な光学、LiDAR、SAR、マップデータを用いてテストされている。
その結果,HOPCnccは複雑な非線形ラジオメトリック差に対して頑健であり,適合性能において最先端の類似度指標(NCCと相互情報)よりも優れていた。
さらに,hopcnccに基づくロバスト登録法も提案し,マルチモーダルリモートセンシング画像の6対を用いて評価した。
実験により,マルチモーダル画像登録における提案手法の有効性が示された。
関連論文リスト
- MB-RACS: Measurement-Bounds-based Rate-Adaptive Image Compressed Sensing Network [65.1004435124796]
本稿では,MB-RACS(Message-Bounds-based Rate-Adaptive Image Compressed Sensing Network)フレームワークを提案する。
実験により,提案手法が現在の先行手法を超越していることが実証された。
論文 参考訳(メタデータ) (2024-01-19T04:40:20Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - A Robust Multimodal Remote Sensing Image Registration Method and System
Using Steerable Filters with First- and Second-order Gradients [7.813406811407584]
非線形ラジオメトリック差(NRD)と有意な幾何学的歪みのため,マルチモーダルリモートセンシング画像の同時登録は現在も進行中の課題である。
本稿では,2つの重要なステップからなるステアブルフィルタに基づくロバストマッチング手法を提案する。
提案手法の性能を多種類のマルチモーダルRS画像を用いて評価した。
論文 参考訳(メタデータ) (2022-02-27T12:22:42Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z) - Semantic Change Detection with Asymmetric Siamese Networks [71.28665116793138]
2つの空中画像が与えられた場合、セマンティックチェンジ検出は、土地被覆のバリエーションを特定し、それらの変化タイプをピクセルワイド境界で識別することを目的としている。
この問題は、正確な都市計画や天然資源管理など、多くの地球ビジョンに関連するタスクにおいて不可欠である。
本研究では, 広く異なる構造を持つモジュールから得られた特徴対を用いて意味変化を同定し, 同定するための非対称システマネットワーク(ASN)を提案する。
論文 参考訳(メタデータ) (2020-10-12T13:26:30Z) - Multi-Objective CNN Based Algorithm for SAR Despeckling [1.933681537640272]
本稿では,SAR画像特性を考慮した多目的コスト関数を持つ畳み込みニューラルネットワーク(CNN)を提案する。
シミュレーションおよび実写SAR画像を用いた実験により,提案手法の精度が,Stand-of-Art despecklingアルゴリズムと比較された。
論文 参考訳(メタデータ) (2020-06-16T10:15:42Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - Fast and Robust Registration of Aerial Images and LiDAR data Based on
Structrual Features and 3D Phase Correlation [6.3812295314207335]
本稿では,構造的特徴と3次元位相相関に基づく自動登録手法を提案する。
空中画像とLiDARデータの2つのデータセットを用いて実験したところ、提案手法は最先端の手法よりもはるかに高速で堅牢であることがわかった。
論文 参考訳(メタデータ) (2020-04-21T08:19:56Z) - A Robust Imbalanced SAR Image Change Detection Approach Based on Deep
Difference Image and PCANet [20.217242547269947]
深層学習に基づく非平衡多時間合成開口レーダ(SAR)画像に対して,新しいロバストな変化検出手法を提案する。
我々の主な貢献は、差分画像を生成する新しい方法と並列ファジィc-means(FCM)クラスタリング法を開発することである。
実験の結果,提案手法は不均衡なSARデータに対して有効で頑健であり,ほとんどの最先端手法よりも99.52%変化検出精度を実現していることがわかった。
論文 参考訳(メタデータ) (2020-03-03T20:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。