論文の概要: DINO-MC: Self-supervised Contrastive Learning for Remote Sensing Imagery
with Multi-sized Local Crops
- arxiv url: http://arxiv.org/abs/2303.06670v1
- Date: Sun, 12 Mar 2023 14:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:38:34.555759
- Title: DINO-MC: Self-supervised Contrastive Learning for Remote Sensing Imagery
with Multi-sized Local Crops
- Title(参考訳): DINO-MC:マルチサイズのローカルクロップを用いたリモートセンシングのための自己教師型コントラスト学習
- Authors: Xinye Wanyan, Sachith Seneviratne, Shuchang Shen, Michael Kirley
- Abstract要約: DINOに触発されて、リモートセンシング画像の自己教師型学習に使用する2つのプレテキストタスクを定式化した。
我々は,DINOを拡張し,単一の固定サイズではなく,様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
我々の実験は、データセットの10%しか事前トレーニングしていない場合でも、DINO-MCは、複数のリモートセンシングタスクにおける既存のSSLRSメソッドの状態を同等かそれ以上に実行することを示した。
- 参考スコア(独自算出の注目度): 1.1699472346137738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the costly nature of remote sensing image labeling and the large
volume of available unlabeled imagery, self-supervised methods that can learn
feature representations without manual annotation have received great
attention. While prior works have explored self-supervised learning in remote
sensing tasks, pretext tasks based on local-global view alignment remain
underexplored. Inspired by DINO, which employs an effective representation
learning structure with knowledge distillation based on global-local view
alignment, we formulate two pretext tasks for use in self-supervised learning
on remote sensing imagery (SSLRS). Using these tasks, we explore the
effectiveness of positive temporal contrast as well as multi-sized views on
SSLRS. Moreover, we extend DINO and propose DINO-MC which uses local views of
various sized crops instead of a single fixed size. Our experiments demonstrate
that even when pre-trained on only 10% of the dataset, DINO-MC performs on par
or better than existing state of the art SSLRS methods on multiple remote
sensing tasks, while using less computational resources. All codes, models and
results are available at https://github.com/WennyXY/DINO-MC.
- Abstract(参考訳): リモートセンシング画像ラベリングのコスト性や利用可能な未ラベル画像量の多さから,手動アノテーションを使わずに特徴表現を学習できる自己教師型手法が注目されている。
先行研究はリモートセンシングタスクにおける自己教師あり学習を探求してきたが、ローカル・グローバル・アライメントに基づくプリテキストタスクは未検討のままである。
グローバル・ローカル・ビューアライメントに基づく知識蒸留による効果的な表現学習構造を持つdinoに触発され,リモートセンシング画像(sslr)上での自己教師あり学習に使用する2つの前文タスクを定式化した。
これらのタスクを用いて、SSLRSのマルチサイズビューと同様に、正の時間的コントラストの有効性を検討する。
さらに、DINOを拡張して、単一の固定サイズではなく、様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
実験では,データセットの10%しか事前トレーニングしていない場合でも,複数のリモートセンシングタスクにおける art sslrs メソッドの既存状態と同等以上の性能を発揮するとともに,計算資源も少ないことを実証した。
すべてのコード、モデル、結果はhttps://github.com/WennyXY/DINO-MCで公開されている。
関連論文リスト
- Remote Sensing Vision-Language Foundation Models without Annotations via
Ground Remote Alignment [61.769441954135246]
テキストアノテーションを使わずにリモートセンシング画像の視覚言語モデルを訓練する手法を提案する。
私たちの重要な洞察は、リモートセンシング画像と言語を接続するための仲介手段として、地上で撮影されたコロケーションのインターネットイメージを使用することです。
論文 参考訳(メタデータ) (2023-12-12T03:39:07Z) - MOCA: Self-supervised Representation Learning by Predicting Masked
Online Codebook Assignments [48.67345147676275]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
相乗的, 計算効率の両パラダイムを効果的に活用する方法を示す。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Text2Seg: Remote Sensing Image Semantic Segmentation via Text-Guided
Visual Foundation Models [5.360103006279672]
本研究では,従来のシナリオと画像の相違が顕著なリモートセンシング領域に焦点を当てた。
テキストプロンプトによって誘導されるリモートセンシング画像セマンティックセグメンテーションタスクを容易にするために,複数の基盤モデルを活用するパイプラインを開発した。
パイプラインは、広く使われているリモートセンシングデータセットをベンチマークし、その有効性を示すための予備的な結果を示す。
論文 参考訳(メタデータ) (2023-04-20T18:39:41Z) - Domain Adaptable Self-supervised Representation Learning on Remote
Sensing Satellite Imagery [2.796274924103132]
本研究は,リモートセンシング衛星データを用いたコントラスト型自己教師型表現学習と知識伝達のための新しい領域パラダイムを提案する。
提案手法は,異なるソースおよび対象データ分布にまたがる自己教師付き表現の知識伝達について検討する。
UC Merced Landuse (UCMD)、SIRI-WHU、MLRSNetの3つの公開データセットで実験が行われた。
論文 参考訳(メタデータ) (2023-04-19T14:32:36Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Geography-Aware Self-Supervised Learning [79.4009241781968]
異なる特徴により、標準ベンチマークにおけるコントラスト学習と教師あり学習の間には、非自明なギャップが持続していることが示される。
本稿では,リモートセンシングデータの空間的整合性を利用した新しいトレーニング手法を提案する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションにおけるコントラスト学習と教師あり学習のギャップを埋めるものである。
論文 参考訳(メタデータ) (2020-11-19T17:29:13Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。