論文の概要: In-Domain Self-Supervised Learning Can Lead to Improvements in Remote
Sensing Image Classification
- arxiv url: http://arxiv.org/abs/2307.01645v1
- Date: Tue, 4 Jul 2023 10:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 17:31:05.523021
- Title: In-Domain Self-Supervised Learning Can Lead to Improvements in Remote
Sensing Image Classification
- Title(参考訳): In-Domain Self-Supervised Learningはリモートセンシング画像分類の改善につながる
- Authors: Ivica Dimitrovski, Ivan Kitanovski, Nikola Simidjievski, Dragi Kocev
- Abstract要約: 自己教師付き学習(SSL)は、リモートセンシング画像分類において有望なアプローチである。
従来の教師付き学習とは対照的に、SSLは明示的なラベルを必要とせずにデータの表現を学習することを目指している。
本稿では,大規模なラベルなしリモートセンシングデータセットであるMario AIDを用いたSSL事前トレーニングの有効性について分析する。
- 参考スコア(独自算出の注目度): 7.511257876007757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has emerged as a promising approach for remote
sensing image classification due to its ability to leverage large amounts of
unlabeled data. In contrast to traditional supervised learning, SSL aims to
learn representations of data without the need for explicit labels. This is
achieved by formulating auxiliary tasks that can be used to create
pseudo-labels for the unlabeled data and learn pre-trained models. The
pre-trained models can then be fine-tuned on downstream tasks such as remote
sensing image scene classification. The paper analyzes the effectiveness of SSL
pre-training using Million AID - a large unlabeled remote sensing dataset on
various remote sensing image scene classification datasets as downstream tasks.
More specifically, we evaluate the effectiveness of SSL pre-training using the
iBOT framework coupled with Vision transformers (ViT) in contrast to supervised
pre-training of ViT using the ImageNet dataset. The comprehensive experimental
work across 14 datasets with diverse properties reveals that in-domain SSL
leads to improved predictive performance of models compared to the supervised
counterparts.
- Abstract(参考訳): 自己教師あり学習(ssl)は、大量のラベルなしデータを活用できるため、リモートセンシング画像分類に有望なアプローチとして登場した。
従来の教師付き学習とは対照的に、sslは明示的なラベルなしでデータの表現を学ぶことを目指している。
これは、ラベルのないデータのための擬似ラベルを作成し、事前学習されたモデルを学ぶために使用できる補助タスクを定式化することで達成される。
事前学習されたモデルは、リモートセンシングイメージシーンの分類のような下流タスクで微調整することができる。
本稿では,様々なリモートセンシング画像シーン分類データセットをダウンストリームタスクとして用いた,大規模なラベルなしリモートセンシングデータセットであるMillion AIDを用いたSSL事前トレーニングの有効性を解析する。
具体的には、ImageNetデータセットを用いたViTの教師付き事前トレーニングとは対照的に、iBOTフレームワークとビジョントランスフォーマー(ViT)を併用したSSL事前トレーニングの有効性を評価する。
さまざまな特性を持つ14のデータセットにわたる包括的な実験の結果、ドメイン内のSSLは、教師付きデータセットと比較してモデルの予測パフォーマンスを改善することが判明した。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain [25.84756140221655]
自然言語処理(NLP)における事前学習を停止しないという考え方に基づいて,CSPT(ConSecutive PreTraining)を提案する。
提案したCSPTは、タスク対応モデルトレーニングのためのラベルなしデータの巨大な可能性を公開することもできる。
その結果,提案したCSPTをタスク認識モデルトレーニングに活用することにより,従来の教師付きプレトレーニング-then-fine-tuning法よりもRTDのダウンストリームタスクのほとんどを上回り得ることがわかった。
論文 参考訳(メタデータ) (2022-07-08T12:32:09Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。