論文の概要: EqCo: Equivalent Rules for Self-supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2010.01929v3
- Date: Mon, 15 Mar 2021 04:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:59:55.587906
- Title: EqCo: Equivalent Rules for Self-supervised Contrastive Learning
- Title(参考訳): eqco: 自己教師付きコントラスト学習の等価ルール
- Authors: Benjin Zhu, Junqiang Huang, Zeming Li, Xiangyu Zhang, Jian Sun
- Abstract要約: 本稿では,InfoNCEをベースとしたコントラスト学習フレームワークにおいて,負のサンプル数と無関係に自己教師型学習を実現する手法を提案する。
InfoMaxの原理に着想を得て、負のペアの数に応じて、対照的な損失のマージン項を適応的にスケールする必要があることを指摘する。
- 参考スコア(独自算出の注目度): 81.45848885547754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a method, named EqCo (Equivalent Rules for
Contrastive Learning), to make self-supervised learning irrelevant to the
number of negative samples in InfoNCE-based contrastive learning frameworks.
Inspired by the InfoMax principle, we point that the margin term in contrastive
loss needs to be adaptively scaled according to the number of negative pairs in
order to keep steady mutual information bound and gradient magnitude. EqCo
bridges the performance gap among a wide range of negative sample sizes, so
that we can use only a few negative pairs (e.g. 16 per query) to perform
self-supervised contrastive training on large-scale vision datasets like
ImageNet, while with almost no accuracy drop. This is quite a contrast to the
widely used large batch training or memory bank mechanism in current practices.
Equipped with EqCo, our simplified MoCo (SiMo) achieves comparable accuracy
with MoCo v2 on ImageNet (linear evaluation protocol) while only involves 4
negative pairs per query instead of 65536, suggesting that large quantities of
negative samples might not be a critical factor in InfoNCE loss.
- Abstract(参考訳): 本稿では,EqCo (Equivalent Rules for Contrastive Learning) という手法を提案する。
InfoMaxの原理に着想を得た結果,相対的損失の限界項は負の対の数に応じて適応的にスケールする必要があることが示唆された。
EqCoは、幅広い負のサンプルサイズ間のパフォーマンスギャップを橋渡しし、少数の負のペア(例えばクエリ毎に16)しか使用せず、ImageNetのような大規模ビジョンデータセットで自己教師付きコントラストトレーニングを実行できるが、精度の低下はほとんどない。
これは、現在のプラクティスで広く使われている大規模バッチトレーニングやメモリバンクメカニズムとはかなり対照的である。
EqCoを組み込んだシンプルなMoCo(SiMo)は、ImageNet(線形評価プロトコル)上でMoCo v2と同等の精度を実現していますが、クエリ毎に65536ではなく4つの負のペアしか必要とせず、大量の負のサンプルがInfoNCE損失の重要な要因ではないことを示唆しています。
関連論文リスト
- CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - Relation-Aware Network with Attention-Based Loss for Few-Shot Knowledge
Graph Completion [9.181270251524866]
現在のアプローチでは、マージンベースのランキング損失を最小限に抑えるために、参照エンティティペア毎に1つの負のサンプルをランダムに選択する。
本稿では,意図に基づくロスフレームワークを用いたリレーショナル・アウェア・ネットワークを提案する。
実験により、RANAは2つのベンチマークデータセットで最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-15T21:41:43Z) - Unsupervised Dense Retrieval with Relevance-Aware Contrastive
Pre-Training [81.3781338418574]
関連性を考慮したコントラスト学習を提案する。
我々は、BEIRおよびオープンドメインQA検索ベンチマークにおいて、SOTAアン教師なしコントリバーモデルを一貫して改善する。
本手法は, 目標コーパスの事前訓練後, BM25に打ち勝つだけでなく, 優れた数発学習者として機能する。
論文 参考訳(メタデータ) (2023-06-05T18:20:27Z) - Siamese Prototypical Contrastive Learning [24.794022951873156]
コントラスト型自己教師学習(Contrastive Self-supervised Learning, CSL)は、大規模データから意味のある視覚的表現を教師なしアプローチで学習する実践的ソリューションである。
本稿では,単純かつ効果的なコントラスト学習フレームワークを導入することで,この問題に対処する。
重要な洞察は、シアメスタイルのメートル法損失を用いて、原型間特徴間の距離を増大させながら、原型内特徴と一致させることである。
論文 参考訳(メタデータ) (2022-08-18T13:25:30Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Conditional Negative Sampling for Contrastive Learning of Visual
Representations [19.136685699971864]
難解な負の選択、あるいは現在の例に類似した選択は、より強い表現をもたらす可能性があることを示す。
それぞれの正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低いことが証明された。
論文 参考訳(メタデータ) (2020-10-05T14:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。