論文の概要: DINO-MC: Self-supervised Contrastive Learning for Remote Sensing Imagery
with Multi-sized Local Crops
- arxiv url: http://arxiv.org/abs/2303.06670v1
- Date: Sun, 12 Mar 2023 14:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:38:34.555759
- Title: DINO-MC: Self-supervised Contrastive Learning for Remote Sensing Imagery
with Multi-sized Local Crops
- Title(参考訳): DINO-MC:マルチサイズのローカルクロップを用いたリモートセンシングのための自己教師型コントラスト学習
- Authors: Xinye Wanyan, Sachith Seneviratne, Shuchang Shen, Michael Kirley
- Abstract要約: DINOに触発されて、リモートセンシング画像の自己教師型学習に使用する2つのプレテキストタスクを定式化した。
我々は,DINOを拡張し,単一の固定サイズではなく,様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
我々の実験は、データセットの10%しか事前トレーニングしていない場合でも、DINO-MCは、複数のリモートセンシングタスクにおける既存のSSLRSメソッドの状態を同等かそれ以上に実行することを示した。
- 参考スコア(独自算出の注目度): 1.1699472346137738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the costly nature of remote sensing image labeling and the large
volume of available unlabeled imagery, self-supervised methods that can learn
feature representations without manual annotation have received great
attention. While prior works have explored self-supervised learning in remote
sensing tasks, pretext tasks based on local-global view alignment remain
underexplored. Inspired by DINO, which employs an effective representation
learning structure with knowledge distillation based on global-local view
alignment, we formulate two pretext tasks for use in self-supervised learning
on remote sensing imagery (SSLRS). Using these tasks, we explore the
effectiveness of positive temporal contrast as well as multi-sized views on
SSLRS. Moreover, we extend DINO and propose DINO-MC which uses local views of
various sized crops instead of a single fixed size. Our experiments demonstrate
that even when pre-trained on only 10% of the dataset, DINO-MC performs on par
or better than existing state of the art SSLRS methods on multiple remote
sensing tasks, while using less computational resources. All codes, models and
results are available at https://github.com/WennyXY/DINO-MC.
- Abstract(参考訳): リモートセンシング画像ラベリングのコスト性や利用可能な未ラベル画像量の多さから,手動アノテーションを使わずに特徴表現を学習できる自己教師型手法が注目されている。
先行研究はリモートセンシングタスクにおける自己教師あり学習を探求してきたが、ローカル・グローバル・アライメントに基づくプリテキストタスクは未検討のままである。
グローバル・ローカル・ビューアライメントに基づく知識蒸留による効果的な表現学習構造を持つdinoに触発され,リモートセンシング画像(sslr)上での自己教師あり学習に使用する2つの前文タスクを定式化した。
これらのタスクを用いて、SSLRSのマルチサイズビューと同様に、正の時間的コントラストの有効性を検討する。
さらに、DINOを拡張して、単一の固定サイズではなく、様々な大きさの作物の局所的なビューを利用するDINO-MCを提案する。
実験では,データセットの10%しか事前トレーニングしていない場合でも,複数のリモートセンシングタスクにおける art sslrs メソッドの既存状態と同等以上の性能を発揮するとともに,計算資源も少ないことを実証した。
すべてのコード、モデル、結果はhttps://github.com/WennyXY/DINO-MCで公開されている。
関連論文リスト
- Pattern Integration and Enhancement Vision Transformer for Self-Supervised Learning in Remote Sensing [11.626527403157922]
本稿では、リモートセンシング画像のための新しい自己教師型学習フレームワークであるPattern Integration and Enhancement Vision Transformer(PIEViT)を紹介する。
PIEViTは内部パッチ機能の表現を強化し、既存の自己管理ベースラインよりも大幅に改善されている。
オブジェクト検出、土地被覆分類、変更検出において優れた結果が得られ、リモートセンシング画像解釈タスクの堅牢性、一般化、転送性などが評価される。
論文 参考訳(メタデータ) (2024-11-09T07:06:31Z) - RS-Mamba for Large Remote Sensing Image Dense Prediction [58.12667617617306]
本稿では,大規模なVHRリモートセンシング画像における高密度予測タスクに対するリモートセンシング・マンバ(RSM)を提案する。
RSMは、線形複雑度でリモートセンシング画像のグローバルなコンテキストを捉えるように設計されている。
我々のモデルは、大規模なリモートセンシング画像の変換器ベースモデルよりも効率と精度がよい。
論文 参考訳(メタデータ) (2024-04-03T12:06:01Z) - CtxMIM: Context-Enhanced Masked Image Modeling for Remote Sensing Image Understanding [38.53988682814626]
リモートセンシング画像理解のためのコンテキスト強化マスク画像モデリング手法(CtxMIM)を提案する。
CtxMIMは、オリジナルのイメージパッチを再構成テンプレートとして定式化し、2セットのイメージパッチを操作するために、Siameseフレームワークを使用している。
シンプルでエレガントな設計により、CtxMIMは、大規模データセットでオブジェクトレベルまたはピクセルレベルの機能を学ぶための事前トレーニングモデルを奨励する。
論文 参考訳(メタデータ) (2023-09-28T18:04:43Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Domain Adaptable Self-supervised Representation Learning on Remote
Sensing Satellite Imagery [2.796274924103132]
本研究は,リモートセンシング衛星データを用いたコントラスト型自己教師型表現学習と知識伝達のための新しい領域パラダイムを提案する。
提案手法は,異なるソースおよび対象データ分布にまたがる自己教師付き表現の知識伝達について検討する。
UC Merced Landuse (UCMD)、SIRI-WHU、MLRSNetの3つの公開データセットで実験が行われた。
論文 参考訳(メタデータ) (2023-04-19T14:32:36Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Geography-Aware Self-Supervised Learning [79.4009241781968]
異なる特徴により、標準ベンチマークにおけるコントラスト学習と教師あり学習の間には、非自明なギャップが持続していることが示される。
本稿では,リモートセンシングデータの空間的整合性を利用した新しいトレーニング手法を提案する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションにおけるコントラスト学習と教師あり学習のギャップを埋めるものである。
論文 参考訳(メタデータ) (2020-11-19T17:29:13Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。