論文の概要: Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss
- arxiv url: http://arxiv.org/abs/2008.04378v1
- Date: Mon, 10 Aug 2020 19:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:03:31.581426
- Title: Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss
- Title(参考訳): 注意一貫性と対照クラスタリング損失を変換した教師なしディープメトリック学習
- Authors: Yang Li, Shichao Kan, and Zhihai He
- Abstract要約: 教師なしのメートル法学習のための既存のアプローチは、入力画像自体の自己超越情報を探索することに焦点を当てている。
我々は、画像を分析する際、人間の目は個々の画像を調べるのではなく、互いに画像を比較することが多いことを観察した。
本研究では,画像間の自己超越情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
- 参考スコア(独自算出の注目度): 28.17607283348278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for unsupervised metric learning focus on exploring
self-supervision information within the input image itself. We observe that,
when analyzing images, human eyes often compare images against each other
instead of examining images individually. In addition, they often pay attention
to certain keypoints, image regions, or objects which are discriminative
between image classes but highly consistent within classes. Even if the image
is being transformed, the attention pattern will be consistent. Motivated by
this observation, we develop a new approach to unsupervised deep metric
learning where the network is learned based on self-supervision information
across images instead of within one single image. To characterize the
consistent pattern of human attention during image comparisons, we introduce
the idea of transformed attention consistency. It assumes that visually similar
images, even undergoing different image transforms, should share the same
consistent visual attention map. This consistency leads to a pairwise
self-supervision loss, allowing us to learn a Siamese deep neural network to
encode and compare images against their transformed or matched pairs. To
further enhance the inter-class discriminative power of the feature generated
by this network, we adapt the concept of triplet loss from supervised metric
learning to our unsupervised case and introduce the contrastive clustering
loss. Our extensive experimental results on benchmark datasets demonstrate that
our proposed method outperforms current state-of-the-art methods for
unsupervised metric learning by a large margin.
- Abstract(参考訳): 教師なしメトリック学習のための既存のアプローチは、入力画像自体の自己超越情報を探究することに焦点を当てている。
画像分析において,人間の目は,画像を個々に調べるのではなく,互いに比較することが多い。
さらに、イメージクラス間で識別されるが、クラス内では非常に一貫性のある特定のキーポイント、イメージ領域、オブジェクトに注意を払うことが多い。
画像が変換されたとしても、注意パターンは一貫性がある。
本研究は,1つの画像内ではなく,画像間の自己スーパービジョン情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
画像比較における人間の注意の一貫性パターンを特徴付けるために,変化した注意の一貫性の概念を導入する。
視覚的に類似したイメージは、異なる画像変換を実行しても、同じ一貫した視覚的注意マップを共有するべきであると仮定する。
この一貫性は、ペアワイズな自己スーパービジョンの損失につながり、siamのディープニューラルネットワークを学習して、変換されたペアや一致したペアとイメージをエンコードし比較することが可能になります。
このネットワークが生成する特徴のクラス間判別能力をさらに高めるために,教師付きメトリック学習による三重項損失の概念を教師なしの場合に適用し,対照クラスタリング損失を導入する。
ベンチマークデータセットを用いた実験結果から,提案手法は,教師なしメトリック学習の最先端手法よりも大きなマージンで優れていることが示された。
関連論文リスト
- Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Self-supervised Contrastive Learning for Cross-domain Hyperspectral
Image Representation [26.610588734000316]
本稿では,アノテートが本質的に困難であるハイパースペクトル画像に適した自己教師型学習フレームワークを提案する。
提案するフレームワークアーキテクチャは、クロスドメインCNNを利用して、異なるハイパースペクトル画像から表現を学習する。
実験結果は、スクラッチや他の移動学習法から学習したモデルに対して、提案した自己教師型表現の利点を示す。
論文 参考訳(メタデータ) (2022-02-08T16:16:45Z) - Focus on the Positives: Self-Supervised Learning for Biodiversity
Monitoring [9.086207853136054]
ラベルのない画像コレクションから自己教師付き表現を学習する問題に対処する。
我々は,入力画像間の空間的関係や時間的関係などの情報を符号化する,手軽に利用可能なコンテキストデータを利用する。
地球生物多様性監視の重要課題として、人間の監督が限定された視覚的種分類タスクに適応可能な画像特徴があげられる。
論文 参考訳(メタデータ) (2021-08-14T01:12:41Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Unsupervised Landmark Learning from Unpaired Data [117.81440795184587]
教師なしランドマーク学習の最近の試みは、外観は似ているがポーズでは異なる合成画像対を活用する。
本稿では,2回スワッピング・リコンストラクション・ストラテジーを適用して最終監視を行うクロスイメージ・サイクル整合性フレームワークを提案する。
提案するフレームワークは,強いベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-06-29T13:57:20Z) - Disentangle Perceptual Learning through Online Contrastive Learning [16.534353501066203]
人間の視覚的知覚による現実的な結果の獲得は、画像変換タスクにおける中心的な関心事である。
本稿では,事前学習した分類ネットワークの特徴表現の中で,人間の視覚知覚に限定した次元しか関連していないことを論じる。
このような仮定の下で,提案したオンラインコントラスト学習を通じて,認識関連次元を表現から切り離そうとする。
論文 参考訳(メタデータ) (2020-06-24T06:48:38Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。