論文の概要: Domain Adaptable Self-supervised Representation Learning on Remote
Sensing Satellite Imagery
- arxiv url: http://arxiv.org/abs/2304.09874v1
- Date: Wed, 19 Apr 2023 14:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 15:23:29.004264
- Title: Domain Adaptable Self-supervised Representation Learning on Remote
Sensing Satellite Imagery
- Title(参考訳): リモートセンシング衛星画像を用いたドメイン適応型自己教師型表現学習
- Authors: Muskaan Chopra, Prakash Chandra Chhipa, Gopal Mengi, Varun Gupta and
Marcus Liwicki
- Abstract要約: 本研究は,リモートセンシング衛星データを用いたコントラスト型自己教師型表現学習と知識伝達のための新しい領域パラダイムを提案する。
提案手法は,異なるソースおよび対象データ分布にまたがる自己教師付き表現の知識伝達について検討する。
UC Merced Landuse (UCMD)、SIRI-WHU、MLRSNetの3つの公開データセットで実験が行われた。
- 参考スコア(独自算出の注目度): 2.796274924103132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a novel domain adaption paradigm for studying contrastive
self-supervised representation learning and knowledge transfer using remote
sensing satellite data. Major state-of-the-art remote sensing visual domain
efforts primarily focus on fully supervised learning approaches that rely
entirely on human annotations. On the other hand, human annotations in remote
sensing satellite imagery are always subject to limited quantity due to high
costs and domain expertise, making transfer learning a viable alternative. The
proposed approach investigates the knowledge transfer of selfsupervised
representations across the distinct source and target data distributions in
depth in the remote sensing data domain. In this arrangement, self-supervised
contrastive learning-based pretraining is performed on the source dataset, and
downstream tasks are performed on the target datasets in a round-robin fashion.
Experiments are conducted on three publicly available datasets, UC Merced
Landuse (UCMD), SIRI-WHU, and MLRSNet, for different downstream classification
tasks versus label efficiency. In self-supervised knowledge transfer, the
proposed approach achieves state-of-the-art performance with label efficiency
labels and outperforms a fully supervised setting. A more in-depth qualitative
examination reveals consistent evidence for explainable representation
learning. The source code and trained models are published on GitHub.
- Abstract(参考訳): 本稿では,リモートセンシング衛星データを用いたコントラスト的自己教師あり表現学習と知識伝達を研究するための新しいドメイン適応パラダイムを提案する。
最先端のリモートセンシング視覚ドメインの取り組みは主に、完全に人間のアノテーションに依存する完全な教師付き学習アプローチに焦点を当てている。
一方、リモートセンシング衛星画像における人間のアノテーションは、高コストとドメインの専門知識のため、常に限られた量に制限されるため、転送学習が有効な代替手段となる。
提案手法は,リモートセンシングデータ領域において,異なるソースとターゲットデータ分布をまたいだ自己教師付き表現の知識伝達について検討する。
この配置では、ソースデータセット上で自己教師付きコントラスト学習に基づく事前訓練を行い、ラウンドロビン方式でターゲットデータセット上で下流タスクを実行する。
実験は、UC Merced Landuse (UCMD)、SIRI-WHU、MLRSNetの3つの公開データセットで行われ、下流分類タスクとラベル効率が異なる。
自己教師付き知識伝達では,ラベル効率ラベルによる最先端性能を実現し,完全教師付き設定よりも優れる。
より詳細な質的検証により、説明可能な表現学習の一貫した証拠が明らかになる。
ソースコードとトレーニングされたモデルはgithubで公開されている。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Extending global-local view alignment for self-supervised learning with remote sensing imagery [1.5192294544599656]
自己教師付きモデルは、大量のラベルのないデータに対して擬似ラベルを生成するプレテキストタスクを定式化することにより、一般的な特徴表現を取得する。
DINOに触発されて、リモートセンシング画像(SSLRS)を用いた自己教師型学習のための2つのプレテキストタスクを定式化した。
我々は,DINOを拡張し,単一の固定サイズではなく,様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
論文 参考訳(メタデータ) (2023-03-12T14:24:10Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Clustering augmented Self-Supervised Learning: Anapplication to Land
Cover Mapping [10.720852987343896]
本稿では,自己教師型学習のためのクラスタリングに基づくプレテキストタスクを用いて,土地被覆マッピングの新しい手法を提案する。
社会的に関係のある2つのアプリケーションに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-08-16T19:35:43Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。