論文の概要: HoughCL: Finding Better Positive Pairs in Dense Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2111.10794v1
- Date: Sun, 21 Nov 2021 11:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 07:50:17.306174
- Title: HoughCL: Finding Better Positive Pairs in Dense Self-supervised Learning
- Title(参考訳): HoughCL: 集中型自己教師型学習におけるポジティブペアの発見
- Authors: Yunsung Lee, Teakgyu Hong, Han-Cheol Cho, Junbum Cha, Seungryong Kim
- Abstract要約: Hough Contrastive Learning (HoughCL) は、Hough空間に基づく2つの高密度特徴間の幾何的整合性を実現する手法である。
従来の研究と比較して,本手法は高密度な予測微調整タスクにおいて,より優れた,あるいは同等の性能を示す。
- 参考スコア(独自算出の注目度): 30.442474932594386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, self-supervised methods show remarkable achievements in image-level
representation learning. Nevertheless, their image-level self-supervisions lead
the learned representation to sub-optimal for dense prediction tasks, such as
object detection, instance segmentation, etc. To tackle this issue, several
recent self-supervised learning methods have extended image-level single
embedding to pixel-level dense embeddings. Unlike image-level representation
learning, due to the spatial deformation of augmentation, it is difficult to
sample pixel-level positive pairs. Previous studies have sampled pixel-level
positive pairs using the winner-takes-all among similarity or thresholding
warped distance between dense embeddings. However, these naive methods can be
struggled by background clutter and outliers problems. In this paper, we
introduce Hough Contrastive Learning (HoughCL), a Hough space based method that
enforces geometric consistency between two dense features. HoughCL achieves
robustness against background clutter and outliers. Furthermore, compared to
baseline, our dense positive pairing method has no additional learnable
parameters and has a small extra computation cost. Compared to previous works,
our method shows better or comparable performance on dense prediction
fine-tuning tasks.
- Abstract(参考訳): 近年,自己教師あり手法は画像レベルの表現学習において顕著な成果を示している。
それでも、イメージレベルの自己スーパービジョンは、オブジェクト検出やインスタンスセグメンテーションなどの密集した予測タスクに対して、学習表現を最適化する。
この問題に対処するため、近年、複数の自己教師付き学習手法が画像レベルのシングル埋め込みをピクセルレベルの高密度埋め込みに拡張した。
画像レベルの表現学習とは異なり、拡張の空間的変形のため、ピクセルレベルの正対をサンプリングすることは困難である。
従来の研究では、密接な埋め込みの間の歪んだ距離の類似性やしきい値の中で、勝者のすべてを使ってピクセルレベルの正対をサンプリングしていた。
しかし、これらのナイーブな手法は背景クラッタや外れ値問題で苦労することがある。
本稿では,Hough空間に基づく2つの高密度特徴間の幾何的整合性を実現するHough Contrastive Learning (HoughCL)を提案する。
HoughCLはバックグラウンドのクラッタやアウトレイラに対して堅牢性を実現する。
さらに,本手法は,ベースラインと比較して,学習可能なパラメータを加味せず,計算コストも小さめである。
提案手法は, 従来手法と比較して, 密集した微調整タスクにおいて, 優れた性能または同等の性能を示す。
関連論文リスト
- Contrastive Learning with Synthetic Positives [11.932323457691945]
近隣住民との対比学習は、最も効率的な自己教師付き学習(SSL)技術の1つであることが証明されている。
本稿では,NCLP(Contrastive Learning with Synthetic Positives)という新しいアプローチを提案する。
NCLPは、無条件拡散モデルによって生成された合成画像を利用して、モデルが多様な正から学ぶのに役立つ追加の正として利用する。
論文 参考訳(メタデータ) (2024-08-30T01:47:43Z) - Multilevel Saliency-Guided Self-Supervised Learning for Image Anomaly
Detection [15.212031255539022]
異常検出(AD)はコンピュータビジョンの基本課題である。
そこで我々は,サリエンシガイダンスを活用して意味的手がかりを付加するCutSwapを提案する。
CutSwapは、2つの主流ADベンチマークデータセット上で最先端のADパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T08:03:53Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Contrastive Rendering for Ultrasound Image Segmentation [59.23915581079123]
米国の画像にシャープな境界がないことは、セグメンテーションに固有の課題である。
我々は,US画像における境界推定を改善するための,新しい,効果的なフレームワークを提案する。
提案手法は最先端の手法より優れており,臨床応用の可能性も高い。
論文 参考訳(メタデータ) (2020-10-10T07:14:03Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。