論文の概要: Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2309.05840v2
- Date: Fri, 15 Sep 2023 16:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:26:59.510703
- Title: Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation
- Title(参考訳): 短時間リモートセンシング画像セマンティクスセグメンテーションのための自己相関と相互相関学習
- Authors: Linhan Wang, Shuo Lei, Jianfeng He, Shengkun Wang, Min Zhang,
Chang-Tien Lu
- Abstract要約: リモートセマンティックセマンティックセマンティックセマンティクスは、クエリイメージからターゲットオブジェクトをセグメントすることを学ぶことを目的としている。
本稿では,数発のリモートセンシング画像セマンティックセマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進させる。
- 参考スコア(独自算出の注目度): 27.59330408178435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remote sensing image semantic segmentation is an important problem for remote
sensing image interpretation. Although remarkable progress has been achieved,
existing deep neural network methods suffer from the reliance on massive
training data. Few-shot remote sensing semantic segmentation aims at learning
to segment target objects from a query image using only a few annotated support
images of the target class. Most existing few-shot learning methods stem
primarily from their sole focus on extracting information from support images,
thereby failing to effectively address the large variance in appearance and
scales of geographic objects. To tackle these challenges, we propose a
Self-Correlation and Cross-Correlation Learning Network for the few-shot remote
sensing image semantic segmentation. Our model enhances the generalization by
considering both self-correlation and cross-correlation between support and
query images to make segmentation predictions. To further explore the
self-correlation with the query image, we propose to adopt a classical spectral
method to produce a class-agnostic segmentation mask based on the basic visual
information of the image. Extensive experiments on two remote sensing image
datasets demonstrate the effectiveness and superiority of our model in few-shot
remote sensing image semantic segmentation. Code and models will be accessed at
https://github.com/linhanwang/SCCNet.
- Abstract(参考訳): リモートセンシング画像セマンティクスセグメンテーションは、リモートセンシング画像解釈の重要な問題である。
目覚ましい進歩を遂げたものの、既存のディープニューラルネットワーク手法は大規模なトレーニングデータに依存している。
少数のリモートセンシング セマンティクスセグメンテーションは、ターゲットクラスの注釈付きサポートイメージのみを使用して、クエリ画像からターゲットオブジェクトをセグメンテーションすることを目的としている。
既存の少数ショット学習手法の多くは、主に支援画像から情報を取り出すことに集中しており、地理的物体の外観や規模に大きなばらつきを効果的に解決できない。
これらの課題に対処するために,数発のリモートセンシング画像セマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,セグメンテーション予測を行うために,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進する。
問合せ画像との自己相関を更に探求するため,画像の基本的視覚情報に基づいて,クラス非依存のセグメンテーションマスクを作成するための古典スペクトル法を提案する。
2つのリモートセンシング画像データセットに関する広範囲な実験により、短時間リモートセンシング画像セマンティクスセグメンテーションにおけるモデルの有効性と優位性が証明された。
コードとモデルはhttps://github.com/linhanwang/sccnetでアクセスできる。
関連論文リスト
- IFSENet : Harnessing Sparse Iterations for Interactive Few-shot Segmentation Excellence [2.822194296769473]
新しいクラスのセグメンテーションを学ぶために必要な画像の数を減らします。
インタラクティブなセグメンテーション技術は、一度に1つのオブジェクトのセグメンテーションを漸進的に改善することのみに焦点を当てます。
2つの概念を組み合わせることで、新しいクラスのセグメンテーションモデルをトレーニングするのに要する労力を大幅に削減する。
論文 参考訳(メタデータ) (2024-03-22T10:15:53Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Object discovery and representation networks [78.16003886427885]
本研究では,事前に符号化された構造を自ら発見する自己教師型学習パラダイムを提案する。
Odinはオブジェクト発見と表現ネットワークを結合して意味のある画像のセグメンテーションを発見する。
論文 参考訳(メタデータ) (2022-03-16T17:42:55Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。