論文の概要: Conditional Negative Sampling for Contrastive Learning of Visual
Representations
- arxiv url: http://arxiv.org/abs/2010.02037v1
- Date: Mon, 5 Oct 2020 14:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:47:22.974876
- Title: Conditional Negative Sampling for Contrastive Learning of Visual
Representations
- Title(参考訳): 視覚表現のコントラスト学習のための条件負サンプリング
- Authors: Mike Wu, Milan Mosse, Chengxu Zhuang, Daniel Yamins, Noah Goodman
- Abstract要約: 難解な負の選択、あるいは現在の例に類似した選択は、より強い表現をもたらす可能性があることを示す。
それぞれの正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低いことが証明された。
- 参考スコア(独自算出の注目度): 19.136685699971864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods for learning unsupervised visual representations, dubbed
contrastive learning, optimize the noise-contrastive estimation (NCE) bound on
mutual information between two views of an image. NCE uses randomly sampled
negative examples to normalize the objective. In this paper, we show that
choosing difficult negatives, or those more similar to the current instance,
can yield stronger representations. To do this, we introduce a family of mutual
information estimators that sample negatives conditionally -- in a "ring"
around each positive. We prove that these estimators lower-bound mutual
information, with higher bias but lower variance than NCE. Experimentally, we
find our approach, applied on top of existing models (IR, CMC, and MoCo)
improves accuracy by 2-5% points in each case, measured by linear evaluation on
four standard image datasets. Moreover, we find continued benefits when
transferring features to a variety of new image distributions from the
Meta-Dataset collection and to a variety of downstream tasks such as object
detection, instance segmentation, and keypoint detection.
- Abstract(参考訳): コントラスト学習と呼ばれる教師なし視覚表現を学習するための最近の手法は、画像の2つのビュー間の相互情報に基づいて、ノイズコントラスト推定(NCE)を最適化する。
NCEはランダムにサンプル化された負の例を使って目的を正規化する。
本稿では, 難解な負の選択, あるいは現在の事例に類似した選択が, より強い表現をもたらすことを示す。
これを実現するために、各正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低い。
実験により,既存のモデル (IR, CMC, MoCo) 上に適用した手法により, 4つの標準画像データセットの線形評価により, 各ケースの精度を2-5%向上することがわかった。
さらに,Meta-Datasetコレクションから,オブジェクト検出やインスタンスセグメンテーション,キーポイント検出など,さまざまなダウンストリームタスクに機能を移行する場合にも,継続的なメリットがある。
関連論文リスト
- Synthetic Hard Negative Samples for Contrastive Learning [8.776888865665024]
本稿では,コントラスト学習のための新しい特徴レベル手法,すなわち合成硬質負のサンプルをサンプリングする手法を提案する。
負試料を混合し, アンカー試料と他の負試料とのコントラストを制御して, より硬い負試料を生成する。
提案手法は,画像データセットの分類性能を向上し,既存の手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-04-06T09:54:35Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - On Mutual Information in Contrastive Learning for Visual Representations [19.136685699971864]
視覚における「対照的」学習アルゴリズムは、伝達タスクにおいて非常によく機能する表現を学ぶために示されている。
このアルゴリズムの族は、画像の2つ以上の「ビュー」間の相互情報の低境界を最大化する。
負のサンプルとビューの選択は、これらのアルゴリズムの成功に不可欠である。
論文 参考訳(メタデータ) (2020-05-27T04:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。