論文の概要: Pairwise Comparison Network for Remote Sensing Scene Classification
- arxiv url: http://arxiv.org/abs/2205.08147v1
- Date: Tue, 17 May 2022 07:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:05:42.647106
- Title: Pairwise Comparison Network for Remote Sensing Scene Classification
- Title(参考訳): リモートセンシングシーン分類のためのペアワイズ比較ネットワーク
- Authors: Zhang Yue, Zheng Xiangtao, Lu Xiaoqiang
- Abstract要約: 本稿では,ペアワイズ選択とペアワイズ表現という2つの主要なステップを含むペアワイズ比較ネットワークを提案する。
提案するネットワークは、まず、類似した画像対を選択し、その後、ペアワイズ表現で画像対を表現する。
各画像の情報を強調するために自己表現を導入し、画像ペア間の微妙な差異を捉えるために相互表現を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote sensing scene classification aims to assign a specific semantic label
to a remote sensing image. Recently, convolutional neural networks have greatly
improved the performance of remote sensing scene classification. However, some
confused images may be easily recognized as the incorrect category, which
generally degrade the performance. The differences between image pairs can be
used to distinguish image categories. This paper proposed a pairwise comparison
network, which contains two main steps: pairwise selection and pairwise
representation. The proposed network first selects similar image pairs, and
then represents the image pairs with pairwise representations. The
self-representation is introduced to highlight the informative parts of each
image itself, while the mutual-representation is proposed to capture the subtle
differences between image pairs. Comprehensive experimental results on two
challenging datasets (AID, NWPU-RESISC45) demonstrate the effectiveness of the
proposed network. The code are provided in
https://github.com/spectralpublic/PCNet.git.
- Abstract(参考訳): リモートセンシングシーン分類は、リモートセンシングイメージに特定の意味ラベルを割り当てることを目的としている。
近年,畳み込みニューラルネットワークはリモートセンシングシーン分類の性能を大幅に改善している。
しかし、いくつかの混乱した画像は誤分類として容易に認識され、一般に性能が低下する。
イメージペアの違いは、イメージカテゴリの識別に使用することができる。
本稿では,ペアワイズ選択とペアワイズ表現の2つの主ステップを含むペアワイズ比較ネットワークを提案する。
提案したネットワークは、まず類似した画像対を選択し、次にペアワイズ表現で画像対を表す。
自己表現は各画像の情報を強調するために導入され、相互表現は画像ペア間の微妙な違いを捉えるために提案される。
2つの挑戦的データセット(aid, nwpu-resisc45)の包括的な実験結果が提案ネットワークの有効性を示している。
コードはhttps://github.com/spectralpublic/pcnet.gitで提供される。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - iCAR: Bridging Image Classification and Image-text Alignment for Visual
Recognition [33.2800417526215]
画像分類は,過去10年間の視覚的表現学習における主要なアプローチである。
しかし、画像テキストアライメントによる視覚学習は、特にゼロショット認識において、有望なパフォーマンスを示すようになった。
本稿では,2つの学習課題を効果的に橋渡しする3つの適応型深層融合法を提案する。
論文 参考訳(メタデータ) (2022-04-22T15:27:21Z) - SGMNet: Scene Graph Matching Network for Few-Shot Remote Sensing Scene
Classification [14.016637774748677]
Few-Shot Remote Sensing Scene Classification (FSRSSC) は,新しいシーンクラスを少数の例で認識することを目的とした重要な課題である。
SGMNetと呼ばれるFSRSSCのための新しいシーングラフマッチングに基づくメタラーニングフレームワークを提案する。
UCMerced LandUse, WHU19, AID, NWPU-RESISC45データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-10-09T07:43:40Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Self-Supervised Ranking for Representation Learning [108.38993212650577]
本稿では、画像検索コンテキストにおけるランキング問題として定式化することで、自己教師型表現学習のための新しいフレームワークを提案する。
我々は、画像のランダムなビューが正に関連していると考えられるランク付けのための平均精度(AP)を最大化し、表現エンコーダを訓練する。
原則として、ランク付け基準を使用することで、対象中心のキュレートされたデータセットへの依存を排除します。
論文 参考訳(メタデータ) (2020-10-14T17:24:56Z) - Epipolar-Guided Deep Object Matching for Scene Change Detection [23.951526610952765]
本稿では,オブジェクト指向変化検出ネットワーク(OBJ-CDNet)について述べる。
移動カメラは、カメラの軌跡とシャッタータイミングの違いにより、毎回異なる視点から画像をキャプチャする。
本稿では,画像ペア間のオブジェクト対応を確立するディープグラフマッチングネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T15:48:40Z) - Learning Attentive Pairwise Interaction for Fine-Grained Classification [53.66543841939087]
本稿では,細粒度分類のための簡易かつ効果的な監視ペアワイド・インタラクション・ネットワーク(API-Net)を提案する。
API-Netはまず相互機能ベクトルを学習し、入力ペアのセマンティックな違いをキャプチャする。
そして、この相互ベクトルと個々のベクトルを比較して、各入力画像のゲートを生成する。
詳細な分類において,5つの人気のあるベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-24T12:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。