論文の概要: Rotation Invariant Aerial Image Retrieval with Group Convolutional
Metric Learning
- arxiv url: http://arxiv.org/abs/2010.09202v1
- Date: Mon, 19 Oct 2020 04:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:58:46.450419
- Title: Rotation Invariant Aerial Image Retrieval with Group Convolutional
Metric Learning
- Title(参考訳): グループ畳み込み距離学習を用いた回転不変空中画像検索
- Authors: Hyunseung Chung, Woo-Jeoung Nam, Seong-Whan Lee
- Abstract要約: 本稿では,グループ畳み込みとアテンション機構とメトリック学習を組み合わせることで,航空画像を取得する新しい手法を提案する。
その結果,提案手法の性能は,ローテーション環境とオリジナル環境の両方において,他の最先端の検索手法を上回ることがわかった。
- 参考スコア(独自算出の注目度): 21.89786914625517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote sensing image retrieval (RSIR) is the process of ranking database
images depending on the degree of similarity compared to the query image. As
the complexity of RSIR increases due to the diversity in shooting range, angle,
and location of remote sensors, there is an increasing demand for methods to
address these issues and improve retrieval performance. In this work, we
introduce a novel method for retrieving aerial images by merging group
convolution with attention mechanism and metric learning, resulting in
robustness to rotational variations. For refinement and emphasis on important
features, we applied channel attention in each group convolution stage. By
utilizing the characteristics of group convolution and channel-wise attention,
it is possible to acknowledge the equality among rotated but identically
located images. The training procedure has two main steps: (i) training the
network with Aerial Image Dataset (AID) for classification, (ii) fine-tuning
the network with triplet-loss for retrieval with Google Earth South Korea and
NWPU-RESISC45 datasets. Results show that the proposed method performance
exceeds other state-of-the-art retrieval methods in both rotated and original
environments. Furthermore, we utilize class activation maps (CAM) to visualize
the distinct difference of main features between our method and baseline,
resulting in better adaptability in rotated environments.
- Abstract(参考訳): リモートセンシング画像検索(remote sensing image retrieval、rsir)は、クエリ画像と類似度に応じてデータベース画像をランク付けするプロセスである。
リモートセンサーの撮影範囲、角度、位置の多様性によりRSIRの複雑さが増大するにつれて、これらの問題に対処し、検索性能を向上させる方法の需要が高まっている。
本研究では,群畳み込みと注意機構とメトリック学習を融合し,回転変動に対するロバスト性を実現する新しい空中画像検索手法を提案する。
重要な特徴の洗練と強調のために,各グループ畳み込み段階でチャネル注意を適用した。
グループ畳み込みの特性とチャネルワイドアテンションを利用して、回転するが同一の位置にある画像の等しさを認識することができる。
訓練手順には2つの主要なステップがある。
(i)分類のためのAID(Aerial Image Dataset)によるネットワークのトレーニング
(II) Google Earth South Korea と NWPU-RESISC45 データセットによる検索のためのトリプルトロスによるネットワークの微調整。
その結果,提案手法の性能はローテーション環境とオリジナル環境の両方において,他の最先端の検索手法を上回ることがわかった。
さらに,クラスアクティベーションマップ(cam)を用いて,本手法とベースラインの主な特徴の違いを可視化し,回転環境における適応性の向上を実現した。
関連論文リスト
- PreCM: The Padding-based Rotation Equivariant Convolution Mode for Semantic Segmentation [10.74841255987162]
本稿では,パッド型回転同変畳み込みモード(PreCM)を数値的に構築する。
PreCMは、マルチスケールの画像や畳み込みカーネルだけでなく、複数の畳み込みを置き換えるための代替コンポーネントとしても使用できる。
実験により、PreCMベースのネットワークは、元のネットワークやデータ拡張ベースのネットワークよりもセグメンテーション性能が良いことを示した。
論文 参考訳(メタデータ) (2024-11-03T16:26:55Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Advancing Image Retrieval with Few-Shot Learning and Relevance Feedback [5.770351255180495]
Image Retrieval with Relevance Feedback (IRRF) は、検索プロセス中に反復的なヒューマンインタラクションを伴う。
本稿では,タスクに適したハイパーネットワークに基づく新しいスキームを提案し,ユーザフィードバックの迅速な調整を容易にする。
提案手法は,数発の1クラス分類でSoTAを達成でき,数発のオープンセット認識のバイナリ分類タスクで同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-18T10:20:28Z) - Symmetrical Bidirectional Knowledge Alignment for Zero-Shot Sketch-Based
Image Retrieval [69.46139774646308]
本稿ではゼロショットスケッチベース画像検索(ZS-SBIR)の問題点について検討する。
目に見えないカテゴリのスケッチをクエリとして使用して、同じカテゴリのイメージにマッチさせることが目的だ。
ゼロショットスケッチに基づく画像検索(SBKA)のための新しい対称双方向知識アライメントを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:50:34Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Remote Sensing Cross-Modal Text-Image Retrieval Based on Global and
Local Information [15.32353270625554]
リモートセンシング(RS)画像の高速かつ柔軟な情報抽出を可能にするため,クロスモーダルリモートセンシングテキスト画像検索(RSCTIR)は近年,緊急な研究ホットスポットとなっている。
まず,グローバル・ローカル情報(GaLR)に基づく新しいRSCTIRフレームワークを提案し,多レベル情報ダイナミックフュージョン(MIDF)モジュールを設計し,異なるレベルの機能を効果的に統合する。
公開データセットの実験は、RSCTIRタスク上でのGaLR法の最先端性能を強く実証している。
論文 参考訳(メタデータ) (2022-04-21T03:18:09Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Learning Test-time Augmentation for Content-based Image Retrieval [42.188013259368766]
オフザシェルフ畳み込みニューラルネットワークは、多くの画像検索タスクにおいて優れた結果をもたらす。
既存の画像検索手法では、ターゲットデータ特有のバリエーションに適応するために、事前訓練されたネットワークを微調整または修正する必要がある。
本手法は, テスト時に強調した画像から抽出した特徴を, 強化学習を通じて学習したポリシーに則って集約することにより, 既製の特徴の分散を促進させる。
論文 参考訳(メタデータ) (2020-02-05T05:08:41Z) - A Two-Stream Symmetric Network with Bidirectional Ensemble for Aerial
Image Matching [24.089374888914143]
本研究では,2ストリームの深層ネットワークを用いて異なる環境下で得られた2つの空中画像を正確にマッチングする手法を提案する。
ネットワークは、対象画像を内部的に増強することにより、3つの入力画像で2ストリームを考慮し、トレーニングにおける追加の強化ペアを反映する。
論文 参考訳(メタデータ) (2020-02-04T14:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。