論文の概要: Self-supervised learning for joint SAR and multispectral land cover
classification
- arxiv url: http://arxiv.org/abs/2108.09075v1
- Date: Fri, 20 Aug 2021 09:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 21:18:49.133254
- Title: Self-supervised learning for joint SAR and multispectral land cover
classification
- Title(参考訳): 共同SARとマルチスペクトル土地被覆分類のための自己教師付き学習
- Authors: Antonio Montanaro, Diego Valsesia, Giulia Fracastoro, Enrico Magli
- Abstract要約: マルチチャネルモデルの自己教師型トレーニングのためのフレームワークと特定のタスクを提案する。
提案手法は,土地被覆分類のラベルと相関する特徴の学習に有効であることを示す。
- 参考スコア(独自算出の注目度): 38.8529535887097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning techniques are gaining popularity due to their
capability of building models that are effective, even when scarce amounts of
labeled data are available. In this paper, we present a framework and specific
tasks for self-supervised training of multichannel models, such as the fusion
of multispectral and synthetic aperture radar images. We show that the proposed
self-supervised approach is highly effective at learning features that
correlate with the labels for land cover classification. This is enabled by an
explicit design of pretraining tasks which promotes bridging the gaps between
sensing modalities and exploiting the spectral characteristics of the input.
When limited labels are available, using the proposed self-supervised
pretraining and supervised finetuning for land cover classification with SAR
and multispectral data outperforms conventional approaches such as purely
supervised learning, initialization from training on Imagenet and recent
self-supervised approaches for computer vision tasks.
- Abstract(参考訳): ラベル付きデータが少ない場合でも、効果的なモデルを構築する能力によって、自己教師付き学習技術が人気を集めている。
本稿では,マルチスペクトルと合成開口レーダ画像の融合など,マルチチャネルモデルの自己教師型トレーニングのためのフレームワークと具体的なタスクを提案する。
提案手法は,土地被覆分類のラベルと相関する学習機能に非常に有効であることを示す。
これは、感覚のモダリティ間のギャップを埋めることを促進し、入力のスペクトル特性を利用する事前訓練タスクの明示的な設計によって実現される。
限定ラベルが利用可能であれば,sarを用いた土地被覆分類のための自己教師付き事前学習と教師付き微調整を用いることで,純粋教師付き学習,imagenetでのトレーニングからの初期化,近年のコンピュータビジョンタスクに対する自己教師付きアプローチといった従来のアプローチを上回っている。
関連論文リスト
- Efficient Prompt Tuning of Large Vision-Language Model for Fine-Grained
Ship Classification [62.425462136772666]
リモートセンシング(RS-FGSC)における船のきめ細かい分類は、クラス間の高い類似性とラベル付きデータの限られた可用性のために大きな課題となる。
大規模な訓練済みビジョンランゲージモデル(VLM)の最近の進歩は、少数ショット学習やゼロショット学習において印象的な能力を示している。
本研究は, 船種別分類精度を高めるために, VLMの可能性を生かしたものである。
論文 参考訳(メタデータ) (2024-03-13T05:48:58Z) - A Bayesian Unification of Self-Supervised Clustering and Energy-Based
Models [11.007541337967027]
我々は、最先端の自己教師型学習目標のベイズ分析を行う。
目的関数が既存の自己教師型学習戦略より優れていることを示す。
また、GEDIをニューロシンボリックな枠組みに統合できることを実証した。
論文 参考訳(メタデータ) (2023-12-30T04:46:16Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Hyperspherical Consistency Regularization [45.00073340936437]
我々は,自己教師あり学習と教師あり学習の関係について検討し,自己教師あり学習がデータ効率のよい深層学習にどのように役立つかを検討する。
超球面整合正則化(HCR)を提案し,特徴依存情報を用いた分類器の正規化を行い,ラベルからのバイアスを回避する。
論文 参考訳(メタデータ) (2022-06-02T02:41:13Z) - Self-Supervised Models are Continual Learners [79.70541692930108]
本研究では, 自己教師付き損失関数を連続学習のための蒸留機構にシームレスに変換可能であることを示す。
我々は,学習した表現の質を大幅に向上させる連続的自己教師型視覚表現学習の枠組みを考案した。
論文 参考訳(メタデータ) (2021-12-08T10:39:13Z) - Clustering augmented Self-Supervised Learning: Anapplication to Land
Cover Mapping [10.720852987343896]
本稿では,自己教師型学習のためのクラスタリングに基づくプレテキストタスクを用いて,土地被覆マッピングの新しい手法を提案する。
社会的に関係のある2つのアプリケーションに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-08-16T19:35:43Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。