論文の概要: Delving into Inter-Image Invariance for Unsupervised Visual
Representations
- arxiv url: http://arxiv.org/abs/2008.11702v3
- Date: Thu, 15 Sep 2022 17:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:10:21.038129
- Title: Delving into Inter-Image Invariance for Unsupervised Visual
Representations
- Title(参考訳): 教師なし視覚表現のための画像間不変性
- Authors: Jiahao Xie, Xiaohang Zhan, Ziwei Liu, Yew Soon Ong, Chen Change Loy
- Abstract要約: 画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
- 参考スコア(独自算出の注目度): 108.33534231219464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has recently shown immense potential in unsupervised
visual representation learning. Existing studies in this track mainly focus on
intra-image invariance learning. The learning typically uses rich intra-image
transformations to construct positive pairs and then maximizes agreement using
a contrastive loss. The merits of inter-image invariance, conversely, remain
much less explored. One major obstacle to exploit inter-image invariance is
that it is unclear how to reliably construct inter-image positive pairs, and
further derive effective supervision from them since no pair annotations are
available. In this work, we present a comprehensive empirical study to better
understand the role of inter-image invariance learning from three main
constituting components: pseudo-label maintenance, sampling strategy, and
decision boundary design. To facilitate the study, we introduce a unified and
generic framework that supports the integration of unsupervised intra- and
inter-image invariance learning. Through carefully-designed comparisons and
analysis, multiple valuable observations are revealed: 1) online labels
converge faster and perform better than offline labels; 2) semi-hard negative
samples are more reliable and unbiased than hard negative samples; 3) a less
stringent decision boundary is more favorable for inter-image invariance
learning. With all the obtained recipes, our final model, namely InterCLR,
shows consistent improvements over state-of-the-art intra-image invariance
learning methods on multiple standard benchmarks. We hope this work will
provide useful experience for devising effective unsupervised inter-image
invariance learning. Code: https://github.com/open-mmlab/mmselfsup.
- Abstract(参考訳): コントラスト学習は近年,教師なし視覚表現学習において大きな可能性を示している。
既存の研究は主に画像内不変学習に焦点を当てている。
学習は通常、豊富な画像内変換を用いて正のペアを構築し、コントラスト損失を用いて一致を最大化する。
画像間不変性の利点は、逆に、探索がはるかに少ないままである。
画像間不変性を利用する大きな障害の1つは、画像間正のペアを確実に構築する方法が不明確であり、ペアアノテーションが利用できないため、それらから効果的な監督を導出することである。
本稿では,疑似ラベル維持,サンプリング戦略,決定境界設計という3つの主構成成分から画像間不変性学習の役割をより深く理解するために,総合的な実証研究を行う。
本研究では,教師なしと画像間不変学習の統合を支援する統一的で汎用的なフレームワークを提案する。
慎重に設計された比較と分析によって、複数の貴重な観察が明らかになる。
1)オンラインレーベルは,オフラインレーベルよりも速く収束し,優れた性能を発揮する
2)半硬質陰性試料は硬質陰性試料よりも信頼性が高く偏りがない。
3) 画像間不変学習において, より厳密な決定境界が好ましい。
得られたすべてのレシピにおいて、最終モデルであるInterCLRは、複数の標準ベンチマーク上での最先端の不変性学習法に対して一貫した改善を示す。
我々は、この研究が効果的な教師なし画像間不変学習を考案するための有用な経験を提供することを望んでいる。
コード: https://github.com/open-mmlab/mmselfsup。
関連論文リスト
- Cross-Modal Contrastive Learning for Robust Reasoning in VQA [76.1596796687494]
視覚的質問応答(VQA)におけるマルチモーダル推論は,近年急速に進展している。
ほとんどの推論モデルは、トレーニングデータから学んだショートカットに大きく依存しています。
本稿では,ショートカット推論の除去を目的とした,単純だが効果的なクロスモーダル・コントラスト学習戦略を提案する。
論文 参考訳(メタデータ) (2022-11-21T05:32:24Z) - Non-contrastive representation learning for intervals from well logs [58.70164460091879]
石油・ガス産業における表現学習問題は、ログデータに基づく表現を一定間隔で提供するモデルを構築することを目的としている。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
論文 参考訳(メタデータ) (2022-09-28T13:27:10Z) - Exploring Negatives in Contrastive Learning for Unpaired Image-to-Image
Translation [12.754320302262533]
我々は、パッチをスペーシングし、ランキング付けすることで、アンペア画像から画像への変換(PUT)のための新しい負のプルーニング技術を導入する。
提案アルゴリズムは効率的で柔軟で,対応するパッチ間で本質的な情報を安定的に学習することができる。
論文 参考訳(メタデータ) (2022-04-23T08:31:18Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - ISD: Self-Supervised Learning by Iterative Similarity Distillation [39.60300771234578]
自己教師付き学習アルゴリズムを導入し,正対と負対の区別ではなく,負のイメージに対してソフトな類似性を用いる。
転送学習におけるBYOLやMoCoといった最先端モデルと比較すると,より優れた結果が得られる。
論文 参考訳(メタデータ) (2020-12-16T20:50:17Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。