論文の概要: Self-Supervised In-Domain Representation Learning for Remote Sensing
Image Scene Classification
- arxiv url: http://arxiv.org/abs/2302.01793v1
- Date: Fri, 3 Feb 2023 15:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:50:55.808457
- Title: Self-Supervised In-Domain Representation Learning for Remote Sensing
Image Scene Classification
- Title(参考訳): リモートセンシング画像シーン分類のための自己教師付きドメイン内表現学習
- Authors: Ali Ghanbarzade and Hossein Soleimani
- Abstract要約: ImageNetのトレーニング済み重量を様々なリモートセンシングタスクに転送すると、許容できる結果が得られる。
近年の研究では、自己教師あり学習手法が、より差別的で伝達しやすい視覚的特徴を捉えていることが示されている。
我々はこれらの事実に動機付けられ、対照的な自己教師付き学習を用いて、リモートセンシング画像のドメイン内表現を事前訓練する。
- 参考スコア(独自算出の注目度): 1.0152838128195465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transferring the ImageNet pre-trained weights to the various remote sensing
tasks has produced acceptable results and reduced the need for labeled samples.
However, the domain differences between ground imageries and remote sensing
images cause the performance of such transfer learning to be limited. Recent
research has demonstrated that self-supervised learning methods capture visual
features that are more discriminative and transferable than the supervised
ImageNet weights. We are motivated by these facts to pre-train the in-domain
representations of remote sensing imagery using contrastive self-supervised
learning and transfer the learned features to other related remote sensing
datasets. Specifically, we used the SimSiam algorithm to pre-train the
in-domain knowledge of remote sensing datasets and then transferred the
obtained weights to the other scene classification datasets. Thus, we have
obtained state-of-the-art results on five land cover classification datasets
with varying numbers of classes and spatial resolutions. In addition, By
conducting appropriate experiments, including feature pre-training using
datasets with different attributes, we have identified the most influential
factors that make a dataset a good choice for obtaining in-domain features. We
have transferred the features obtained by pre-training SimSiam on remote
sensing datasets to various downstream tasks and used them as initial weights
for fine-tuning. Moreover, we have linearly evaluated the obtained
representations in cases where the number of samples per class is limited. Our
experiments have demonstrated that using a higher-resolution dataset during the
self-supervised pre-training stage results in learning more discriminative and
general representations.
- Abstract(参考訳): imagenetのトレーニング済みの重みをさまざまなリモートセンシングタスクに移すことで、許容できる結果が得られ、ラベル付きサンプルの必要性が減った。
しかし、地上画像とリモートセンシング画像の領域差は、そのような転送学習の性能を制限している。
近年の研究では、自己教師あり学習法が、教師ありイメージネット重みよりも識別可能で移動しやすい視覚特徴を捉えることが示されている。
コントラスト的自己教師付き学習を用いて、リモートセンシング画像のドメイン内表現を事前学習し、学習した機能を他の関連するリモートセンシングデータセットに転送する。
具体的には、SimSiamアルゴリズムを用いて、リモートセンシングデータセットのドメイン内知識を事前学習し、得られた重み付けを他のシーン分類データセットに転送した。
そこで,我々は,クラス数や空間分解能の異なる5つの土地被覆分類データセットについて最新の結果を得た。
さらに,属性の異なるデータセットを用いた機能の事前トレーニングを含む適切な実験を行うことで,データ集合をドメイン内特徴の獲得に適した選択肢とする最も影響力のある要因を特定した。
我々は,リモートセンシングデータセット上でsimsiamを事前トレーニングした特徴を下流タスクに移し,それらを微調整のための初期重みとして用いた。
さらに,1クラスあたりのサンプル数が制限された場合に得られた表現を線形に評価した。
実験では,自己教師付き事前学習段階における高分解能データセットの利用により,より識別的,一般表現の学習が可能になることを実証した。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - MoCo-Transfer: Investigating out-of-distribution contrastive learning
for limited-data domains [52.612507614610244]
我々は、モーメントコントラスト(MoCo)プレトレーニングからデータ制限のある設定への自己教師付きコントラスト表現の転送の利点を分析する。
ラベル付きおよびラベルなしデータの量によっては、より大きなアウト・オブ・ディストリビューションデータセットでの対照的な事前トレーニングは、ドメイン内でのMoCoの事前トレーニングよりも、ほぼ同等か、あるいはそれ以上のパフォーマンスが期待できる。
論文 参考訳(メタデータ) (2023-11-15T21:56:47Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Supervised and Contrastive Self-Supervised In-Domain Representation
Learning for Dense Prediction Problems in Remote Sensing [0.0]
本稿では、リモートセンシングと画像Netデータセットの領域差を解決するために、教師付きおよび自己教師型両方のドメイン表現の有効性について検討する。
自己教師付き事前学習では,SimSiamアルゴリズムは単純であり,膨大な計算資源を必要としない。
その結果,自己教師付き表現学習に空間分解能の高いデータセットを用いることで,下流タスクの性能が向上することが実証された。
論文 参考訳(メタデータ) (2023-01-29T20:56:51Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Semantic-aware Dense Representation Learning for Remote Sensing Image
Change Detection [20.761672725633936]
ディープラーニングに基づく変化検出モデルのトレーニングはラベル付きデータに大きく依存する。
最近のトレンドは、リモートセンシング(RS)データを使用して、教師付きまたは自己教師型学習(SSL)を通じてドメイン内表現を取得することである。
複数のクラスバランス点をサンプリングし,RS画像CDに対する意味認識事前学習を提案する。
論文 参考訳(メタデータ) (2022-05-27T06:08:33Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。