論文の概要: Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method
- arxiv url: http://arxiv.org/abs/2106.10605v1
- Date: Sun, 20 Jun 2021 03:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 13:21:32.673132
- Title: Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method
- Title(参考訳): 自己監督型コントラスト学習法を用いた一般リモートセンシングビジョンモデルを用いたリモートセンシング画像セマンティックセマンティックセグメンテーション
- Authors: Haifeng Li, Yi Li, Guo Zhang, Ruoyun Liu, Haozhe Huang, Qing Zhu, Chao
Tao
- Abstract要約: リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
- 参考スコア(独自算出の注目度): 13.479068312825781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new learning paradigm, self-supervised learning (SSL), can be used to solve
such problems by pre-training a general model with large unlabeled images and
then fine-tuning on a downstream task with very few labeled samples.
Contrastive learning is a typical method of SSL, which can learn general
invariant features. However, most of the existing contrastive learning is
designed for classification tasks to obtain an image-level representation,
which may be sub-optimal for semantic segmentation tasks requiring pixel-level
discrimination. Therefore, we propose Global style and Local matching
Contrastive Learning Network (GLCNet) for remote sensing semantic segmentation.
Specifically, the global style contrastive module is used to learn an
image-level representation better, as we consider the style features can better
represent the overall image features; The local features matching contrastive
module is designed to learn representations of local regions which is
beneficial for semantic segmentation. We evaluate four remote sensing semantic
segmentation datasets, and the experimental results show that our method mostly
outperforms state-of-the-art self-supervised methods and ImageNet pre-training.
Specifically, with 1\% annotation from the original dataset, our approach
improves Kappa by 6\% on the ISPRS Potsdam dataset and 3\% on Deep Globe Land
Cover Classification dataset relative to the existing baseline. Moreover, our
method outperforms supervised learning when there are some differences between
the datasets of upstream tasks and downstream tasks. Our study promotes the
development of self-supervised learning in the field of remote sensing semantic
segmentation. The source code is available at
https://github.com/GeoX-Lab/G-RSIM.
- Abstract(参考訳): 新しい学習パラダイムであるself-supervised learning(ssl)は、大きなラベルのない画像で一般的なモデルを事前学習し、ラベル付きサンプルの少ない下流タスクを微調整することで、このような問題を解決するのに使用できる。
対照的な学習はSSLの典型的な方法であり、一般的な不変機能を学ぶことができる。
しかし、既存のコントラスト学習のほとんどは画像レベルの表現を得るために分類タスクのために設計されており、ピクセルレベルの識別を必要とする意味的セグメンテーションタスクには最適ではないかもしれない。
そこで我々は,リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、グローバルなスタイルのコントラッシブモジュールは、画像レベルの表現をより良く学習するために使用され、スタイルの特徴が全体像の特徴をよりよく表現できると考えている。
本研究では,4つのリモートセンシングセマンティクスセグメンテーションデータセットを評価し,本手法が最先端の自己教師付き手法やイメージネットの事前学習よりも優れていることを示す。
具体的には、元のデータセットからの1\%のアノテーションで、ISPRS Potsdamデータセットでは6\%、Deep Globe Land Cover Classificationデータセットでは3\%の改善を行った。
さらに,上流タスクのデータセットと下流タスクの差異がある場合,教師あり学習よりも優れる。
本研究は,リモートセンシング意味セグメンテーションにおける自己教師あり学習の開発を促進する。
ソースコードはhttps://github.com/GeoX-Lab/G-RSIMで入手できる。
関連論文リスト
- LOGCAN++: Adaptive Local-global class-aware network for semantic segmentation of remote sensing imagery [6.715911889086415]
LOGCAN++はリモートセンシング画像用にカスタマイズされたセマンティックセグメンテーションモデルである。
GCA(Global Class Awareness)モジュールとLCA(Local Class Awareness)モジュールで構成されている。
LCAモジュールは、グローバルクラス表現と間接的にピクセルを関連付けるために、中間知覚要素としてローカルクラス表現を生成する。
論文 参考訳(メタデータ) (2024-06-24T10:12:03Z) - Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation [27.59330408178435]
リモートセマンティックセマンティックセマンティックセマンティクスは、クエリイメージからターゲットオブジェクトをセグメントすることを学ぶことを目的としている。
本稿では,数発のリモートセンシング画像セマンティックセマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進させる。
論文 参考訳(メタデータ) (2023-09-11T21:53:34Z) - Enhancing Self-Supervised Learning for Remote Sensing with Elevation
Data: A Case Study with Scarce And High Level Semantic Labels [1.534667887016089]
本研究は、地球観測下流タスクに適用された事前学習モデルに対する、教師なしと教師なしのハイブリッド学習手法を提案する。
我々は、事前訓練モデルに対する対照的なアプローチと画素単位の回帰事前テキストタスクを組み合わせることで、粗い標高マップを予測する。
論文 参考訳(メタデータ) (2023-04-13T23:01:11Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - LoG-CAN: local-global Class-aware Network for semantic segmentation of
remote sensing images [4.124381172041927]
リモートセンシング画像にグローバルクラス認識(GCA)モジュールとローカルクラス認識(LCA)モジュールを備えたマルチスケールセマンティックセマンティックセマンティクスネットワークであるLoG-CANを提案する。
特に、LCAモジュールは、背景干渉を回避するためにクラスワイドコンテキストモデリングのグローバル表現をキャプチャし、LCAモジュールは、クラス内のばらつきを減らすために、クラスをグローバルクラス表現と間接的に関連付ける、中間認識要素としてローカルクラス表現を生成する。
論文 参考訳(メタデータ) (2023-03-14T09:44:29Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。