論文の概要: On Mutual Information in Contrastive Learning for Visual Representations
- arxiv url: http://arxiv.org/abs/2005.13149v2
- Date: Fri, 5 Jun 2020 16:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 07:53:07.207567
- Title: On Mutual Information in Contrastive Learning for Visual Representations
- Title(参考訳): 視覚表現のためのコントラスト学習における相互情報について
- Authors: Mike Wu, Chengxu Zhuang, Milan Mosse, Daniel Yamins, Noah Goodman
- Abstract要約: 視覚における「対照的」学習アルゴリズムは、伝達タスクにおいて非常によく機能する表現を学ぶために示されている。
このアルゴリズムの族は、画像の2つ以上の「ビュー」間の相互情報の低境界を最大化する。
負のサンプルとビューの選択は、これらのアルゴリズムの成功に不可欠である。
- 参考スコア(独自算出の注目度): 19.136685699971864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, several unsupervised, "contrastive" learning algorithms in
vision have been shown to learn representations that perform remarkably well on
transfer tasks. We show that this family of algorithms maximizes a lower bound
on the mutual information between two or more "views" of an image where typical
views come from a composition of image augmentations. Our bound generalizes the
InfoNCE objective to support negative sampling from a restricted region of
"difficult" contrasts. We find that the choice of negative samples and views
are critical to the success of these algorithms. Reformulating previous
learning objectives in terms of mutual information also simplifies and
stabilizes them. In practice, our new objectives yield representations that
outperform those learned with previous approaches for transfer to
classification, bounding box detection, instance segmentation, and keypoint
detection. % experiments show that choosing more difficult negative samples
results in a stronger representation, outperforming those learned with IR, LA,
and CMC in classification, bounding box detection, instance segmentation, and
keypoint detection. The mutual information framework provides a unifying
comparison of approaches to contrastive learning and uncovers the choices that
impact representation learning.
- Abstract(参考訳): 近年,視覚における「コントラスト的」な学習アルゴリズムのいくつかは,伝達タスクにおいて極めてよく機能する表現を学習することが示されている。
このアルゴリズムのファミリは、画像の2つ以上の「ビュー」間の相互情報の低境界を最大化し、典型的なビューは画像拡張の合成から得られることを示す。
我々の境界はインフォデンス目標を一般化し、"差分"コントラストの制限された領域からの負のサンプリングをサポートする。
負のサンプルとビューの選択は、これらのアルゴリズムの成功に不可欠である。
事前の学習目標を相互情報の観点から再構成することで、それらを単純化し安定化する。
実際には、我々の新しい目的は、分類、境界ボックス検出、インスタンスのセグメンテーション、キーポイント検出といった、以前のアプローチで学んだことを上回ります。
%実験の結果,ir,la,cmcを用いた分類,バウンディングボックス検出,インスタンスセグメンテーション,キーポイント検出において,より難しい負のサンプルを選択するとより強い表現が得られることがわかった。
相互情報フレームワークは、対比学習へのアプローチを統一的に比較し、表現学習に影響を与える選択を明らかにする。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - A Broad Study on the Transferability of Visual Representations with
Contrastive Learning [15.667240680328922]
線形評価, 全ネットワーク転送, 数ショット認識のための造影的アプローチの学習表現の伝達性について検討する。
その結果、コントラスト的アプローチは、異なる下流タスクに簡単に移行できる表現を学習できることが示される。
分析の結果, コントラスト的アプローチから得られた表現は, クロスエントロピーモデルよりも低レベル・中レベルセマンティクスを含んでいることがわかった。
論文 参考訳(メタデータ) (2021-03-24T22:55:04Z) - Revisiting Contrastive Learning for Few-Shot Classification [74.78397993160583]
インスタンス識別に基づくコントラスト学習は,視覚表現の自己教師あり学習の指導的アプローチとして現れてきた。
本稿では,インスタンス識別に基づくコントラスト型自己教師付き学習フレームワークにおいて,新しいタスクを一般化する表現を学習する方法を示す。
提案手法は,cidを用いて訓練された普遍的埋め込みと組み合わせて,挑戦的メタデータセットベンチマークにおいて最先端アルゴリズムよりも優れる新しいモデル選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-26T19:58:08Z) - Conditional Negative Sampling for Contrastive Learning of Visual
Representations [19.136685699971864]
難解な負の選択、あるいは現在の例に類似した選択は、より強い表現をもたらす可能性があることを示す。
それぞれの正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低いことが証明された。
論文 参考訳(メタデータ) (2020-10-05T14:17:32Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。