論文の概要: SGMNet: Scene Graph Matching Network for Few-Shot Remote Sensing Scene
Classification
- arxiv url: http://arxiv.org/abs/2110.04494v1
- Date: Sat, 9 Oct 2021 07:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 02:04:22.396109
- Title: SGMNet: Scene Graph Matching Network for Few-Shot Remote Sensing Scene
Classification
- Title(参考訳): SGMNet:Few-Shotリモートセンシングシーン分類のためのシーングラフマッチングネットワーク
- Authors: Baoquan Zhang, Shanshan Feng, Xutao Li, Yunming Ye, and Rui Ye
- Abstract要約: Few-Shot Remote Sensing Scene Classification (FSRSSC) は,新しいシーンクラスを少数の例で認識することを目的とした重要な課題である。
SGMNetと呼ばれるFSRSSCのための新しいシーングラフマッチングに基づくメタラーニングフレームワークを提案する。
UCMerced LandUse, WHU19, AID, NWPU-RESISC45データセットについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 14.016637774748677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-Shot Remote Sensing Scene Classification (FSRSSC) is an important task,
which aims to recognize novel scene classes with few examples. Recently,
several studies attempt to address the FSRSSC problem by following few-shot
natural image classification methods. These existing methods have made
promising progress and achieved superior performance. However, they all
overlook two unique characteristics of remote sensing images: (i) object
co-occurrence that multiple objects tend to appear together in a scene image
and (ii) object spatial correlation that these co-occurrence objects are
distributed in the scene image following some spatial structure patterns. Such
unique characteristics are very beneficial for FSRSSC, which can effectively
alleviate the scarcity issue of labeled remote sensing images since they can
provide more refined descriptions for each scene class. To fully exploit these
characteristics, we propose a novel scene graph matching-based meta-learning
framework for FSRSSC, called SGMNet. In this framework, a scene graph
construction module is carefully designed to represent each test remote sensing
image or each scene class as a scene graph, where the nodes reflect these
co-occurrence objects meanwhile the edges capture the spatial correlations
between these co-occurrence objects. Then, a scene graph matching module is
further developed to evaluate the similarity score between each test remote
sensing image and each scene class. Finally, based on the similarity scores, we
perform the scene class prediction via a nearest neighbor classifier. We
conduct extensive experiments on UCMerced LandUse, WHU19, AID, and
NWPU-RESISC45 datasets. The experimental results show that our method obtains
superior performance over the previous state-of-the-art methods.
- Abstract(参考訳): Few-Shot Remote Sensing Scene Classification (FSRSSC) は,新しいシーンクラスを少数の例で認識することを目的とした重要な課題である。
近年,数発の自然画像分類法によってFSRSSC問題に対処しようとする研究がいくつかある。
これらの既存手法は有望な進歩を遂げ、優れた性能を達成した。
しかし、いずれもリモートセンシング画像の2つのユニークな特徴を見落としている。
(i)複数のオブジェクトがシーンイメージに一緒に現れる傾向にあるオブジェクト共起
(ii)これらの共起物体が空間構造パターンに従ってシーン画像内に分布する物体空間相関
このような特徴はFSRSSCにとって非常に有益であり、各シーンにより洗練された説明を提供することができるため、ラベル付きリモートセンシング画像の不足を効果的に軽減することができる。
これらの特徴をフル活用するために,SGMNetと呼ばれるFSRSSCのためのシーングラフマッチングに基づくメタラーニングフレームワークを提案する。
このフレームワークでは、シーングラフ構築モジュールは、各テストリモートセンシング画像または各シーンクラスをシーングラフとして、ノードがこれらの共起オブジェクトを反映し、エッジがこれらの共起オブジェクト間の空間的相関をキャプチャするように設計されている。
そして、各テストリモートセンシング画像と各シーンクラスとの類似度スコアを評価するために、シーングラフマッチングモジュールをさらに開発する。
最後に、類似度スコアに基づいて、最寄りの隣接分類器を介してシーンクラス予測を行う。
UCMerced LandUse, WHU19, AID, NWPU-RESISC45データセットについて広範な実験を行った。
実験の結果,従来の最先端手法よりも優れた性能が得られることがわかった。
関連論文リスト
- Multi-level Cross-modal Feature Alignment via Contrastive Learning
towards Zero-shot Classification of Remote Sensing Image Scenes [7.17717863134783]
ゼロショット画像シーンの分類に対処するクロスモーダル特徴アライメント手法が提案されている。
リモートセンシング画像シーンのゼロショット分類のためのコントラスト学習によるマルチレベルクロスモーダル特徴アライメント手法を提案する。
提案手法は,ゼロショットリモートセンシング画像シーン分類のための技術手法の状況より優れている。
論文 参考訳(メタデータ) (2023-05-31T10:00:45Z) - Self-attention on Multi-Shifted Windows for Scene Segmentation [14.47974086177051]
マルチスケール画像ウィンドウにおける自己注意の有効利用について検討し,視覚的特徴を学習する。
本稿では,これらの特徴マップを集約して,高密度予測のための特徴表現をデコードする3つの戦略を提案する。
我々のモデルは、4つの公開シーンセグメンテーションデータセットで非常に有望な性能を達成する。
論文 参考訳(メタデータ) (2022-07-10T07:36:36Z) - Complex Scene Image Editing by Scene Graph Comprehension [17.72638225034884]
シーングラフ(SGC-Net)による複雑なシーン画像編集を実現するための2段階手法を提案する。
第1段階では,シーングラフを用いた関心領域予測ネットワークを訓練し,対象物体の位置を推定する。
第2段階では条件付き拡散モデルを用いて、RoI予測に基づいて画像を編集する。
論文 参考訳(メタデータ) (2022-03-24T05:12:54Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Non-parametric spatially constrained local prior for scene parsing on
real-world data [4.035753155957698]
実写データを用いたシーン解析のための非パラメトリック空間制約型局所優先法(SCLP)を提案する。
SCLPは,問合せ画像中のオブジェクト間の相関関係について,長範囲と短範囲の両方のコンテキストをキャプチャする上で強力である。
SIFT Flow と PASCAL-Context ベンチマークデータセットを用いた実験により,スーパーピクセルレベルの視覚特徴と組み合わせたSCLPが,最先端のアプローチと比較して最高の性能を達成することが示された。
論文 参考訳(メタデータ) (2020-06-23T10:12:08Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z) - Scene Graph Generation via Conditional Random Fields [14.282277071380447]
画像中のオブジェクトのインスタンスとその対応する関係を予測するための新しいシーングラフ生成モデルを提案する。
我々のモデルであるSG-CRFは、関係3重項における対象と対象の逐次順序と、シーングラフにおけるオブジェクトノードインスタンスと関係ノードのセマンティック互換性を効率よく学習する。
論文 参考訳(メタデータ) (2018-11-20T04:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。