論文の概要: In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification
- arxiv url: http://arxiv.org/abs/2307.01645v2
- Date: Mon, 5 Feb 2024 14:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 06:08:39.172523
- Title: In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification
- Title(参考訳): In-Domain Self-Supervised Learningはリモートセンシング画像シーンの分類を改善する
- Authors: Ivica Dimitrovski, Ivan Kitanovski, Nikola Simidjievski, Dragi Kocev
- Abstract要約: リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
- 参考スコア(独自算出の注目度): 5.323049242720532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the utility of in-domain self-supervised pre-training of
vision models in the analysis of remote sensing imagery. Self-supervised
learning (SSL) has emerged as a promising approach for remote sensing image
classification due to its ability to exploit large amounts of unlabeled data.
Unlike traditional supervised learning, SSL aims to learn representations of
data without the need for explicit labels. This is achieved by formulating
auxiliary tasks that can be used for pre-training models before fine-tuning
them on a given downstream task. A common approach in practice to SSL
pre-training is utilizing standard pre-training datasets, such as ImageNet.
While relevant, such a general approach can have a sub-optimal influence on the
downstream performance of models, especially on tasks from challenging domains
such as remote sensing. In this paper, we analyze the effectiveness of SSL
pre-training by employing the iBOT framework coupled with Vision transformers
trained on Million-AID, a large and unlabeled remote sensing dataset. We
present a comprehensive study of different self-supervised pre-training
strategies and evaluate their effect across 14 downstream datasets with diverse
properties. Our results demonstrate that leveraging large in-domain datasets
for self-supervised pre-training consistently leads to improved predictive
downstream performance, compared to the standard approaches found in practice.
- Abstract(参考訳): リモートセンシング画像解析におけるビジョンモデルのドメイン内自己教師付き事前学習の有用性について検討する。
自己教師あり学習(ssl)は、大量のラベルなしデータを活用できるため、リモートセンシング画像分類に有望なアプローチとして登場した。
従来の教師付き学習とは異なり、sslは明示的なラベルなしでデータの表現を学習することを目指している。
これは、所定の下流タスクで微調整する前に、事前トレーニングモデルに使用できる補助タスクを定式化することで実現される。
sslプリトレーニングの一般的なアプローチは、imagenetなどの標準的なプリトレーニングデータセットを活用することだ。
このような一般的なアプローチは、モデル下流のパフォーマンス、特にリモートセンシングのような挑戦的な領域のタスクに最適な影響を与える可能性がある。
本稿では,大規模かつラベルなしのリモートセンシングデータセットであるMario-AIDでトレーニングしたビジョントランスフォーマーと組み合わせたiBOTフレームワークを用いて,SSL事前トレーニングの有効性を解析する。
本稿では,様々な自己指導型事前学習戦略を総合的に研究し,その効果を様々な特性を持つ14の下流データセットで評価する。
その結果,自己教師付き事前学習に大規模ドメイン内データセットを活用すると,予測ダウンストリームのパフォーマンスが向上することが示された。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Self-supervised visual learning in the low-data regime: a comparative evaluation [40.27083924454058]
自己監視学習(SSL)は、現代のディープニューラルネットワーク(DNN)のための堅牢なトレーニング手法である
この研究は、現代のビジュアルSSLメソッドの分類を導入し、アプローチの主要なカテゴリに関する詳細な説明と洞察を添えた。
ドメイン固有のダウンストリームタスクでは、ドメイン内のローデータSSLプリトレーニングが大規模な事前トレーニングの一般的なアプローチより優れています。
論文 参考訳(メタデータ) (2024-04-26T07:23:14Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain [25.84756140221655]
自然言語処理(NLP)における事前学習を停止しないという考え方に基づいて,CSPT(ConSecutive PreTraining)を提案する。
提案したCSPTは、タスク対応モデルトレーニングのためのラベルなしデータの巨大な可能性を公開することもできる。
その結果,提案したCSPTをタスク認識モデルトレーニングに活用することにより,従来の教師付きプレトレーニング-then-fine-tuning法よりもRTDのダウンストリームタスクのほとんどを上回り得ることがわかった。
論文 参考訳(メタデータ) (2022-07-08T12:32:09Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。