論文の概要: LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity
- arxiv url: http://arxiv.org/abs/2204.02958v1
- Date: Wed, 6 Apr 2022 17:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:48:15.365779
- Title: LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity
- Title(参考訳): LEAD:特徴類似度分布の調整による自己監督型ランドマーク推定
- Authors: Tejan Karmali, Abhinav Atrishi, Sai Sree Harsha, Susmit Agrawal, Varun
Jampani, R. Venkatesh Babu
- Abstract要約: 自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
- 参考スコア(独自算出の注目度): 49.84167231111667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce LEAD, an approach to discover landmarks from an
unannotated collection of category-specific images. Existing works in
self-supervised landmark detection are based on learning dense (pixel-level)
feature representations from an image, which are further used to learn
landmarks in a semi-supervised manner. While there have been advances in
self-supervised learning of image features for instance-level tasks like
classification, these methods do not ensure dense equivariant representations.
The property of equivariance is of interest for dense prediction tasks like
landmark estimation. In this work, we introduce an approach to enhance the
learning of dense equivariant representations in a self-supervised fashion. We
follow a two-stage training approach: first, we train a network using the BYOL
objective which operates at an instance level. The correspondences obtained
through this network are further used to train a dense and compact
representation of the image using a lightweight network. We show that having
such a prior in the feature extractor helps in landmark detection, even under
drastically limited number of annotations while also improving generalization
across scale variations.
- Abstract(参考訳): 本研究では,未注釈のカテゴリ別画像からランドマークを発見する手法であるLEADを紹介する。
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
分類のようなインスタンスレベルのタスクにおける画像特徴の自己教師付き学習は進歩しているが、これらの手法は高密度な同変表現を保証するものではない。
等分散の性質は、ランドマーク推定のような密集した予測タスクにとって興味深い。
本研究では, 自己教師付き手法を用いて, 密同値表現の学習を強化する手法を提案する。
まず、インスタンスレベルで動作しているbyolの目的を使ってネットワークをトレーニングします。
このネットワークで得られた対応は、軽量ネットワークを用いて画像の高密度でコンパクトな表現を訓練するためにさらに使用される。
特徴抽出器にこのようなプリエントを持つことは,極めて限定的なアノテーション数の下でもランドマーク検出に有効であり,また,スケールのばらつきに対する一般化も改善することを示す。
関連論文リスト
- Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Self-supervised Contrastive Learning for Cross-domain Hyperspectral
Image Representation [26.610588734000316]
本稿では,アノテートが本質的に困難であるハイパースペクトル画像に適した自己教師型学習フレームワークを提案する。
提案するフレームワークアーキテクチャは、クロスドメインCNNを利用して、異なるハイパースペクトル画像から表現を学習する。
実験結果は、スクラッチや他の移動学習法から学習したモデルに対して、提案した自己教師型表現の利点を示す。
論文 参考訳(メタデータ) (2022-02-08T16:16:45Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。