論文の概要: Decoupled Contrastive Learning
- arxiv url: http://arxiv.org/abs/2110.06848v1
- Date: Wed, 13 Oct 2021 16:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:24:06.998744
- Title: Decoupled Contrastive Learning
- Title(参考訳): 分離したコントラスト学習
- Authors: Chun-Hsiao Yeh, Cheng-Yao Hong, Yen-Chi Hsu, Tyng-Luh Liu, Yubei Chen
and Yann LeCun
- Abstract要約: 我々は,広く使用されているクロスエントロピー(InfoNCE)損失における顕著な負陽性結合(NPC)効果を同定した。
NPC効果を適切に処理することにより、非結合型コントラスト学習(DCL)目標関数に到達する。
われわれのアプローチは、200時間以内のバッチサイズ256を使用して6.9%のImageNet top-1精度を実現し、ベースラインのSimCLRを5.1%上回った。
- 参考スコア(独自算出の注目度): 23.25775900388382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) is one of the most successful paradigms for
self-supervised learning (SSL). In a principled way, it considers two augmented
``views'' of the same image as positive to be pulled closer, and all other
images negative to be pushed further apart. However, behind the impressive
success of CL-based techniques, their formulation often relies on
heavy-computation settings, including large sample batches, extensive training
epochs, etc. We are thus motivated to tackle these issues and aim at
establishing a simple, efficient, and yet competitive baseline of contrastive
learning. Specifically, we identify, from theoretical and empirical studies, a
noticeable negative-positive-coupling (NPC) effect in the widely used
cross-entropy (InfoNCE) loss, leading to unsuitable learning efficiency with
respect to the batch size. Indeed the phenomenon tends to be neglected in that
optimizing infoNCE loss with a small-size batch is effective in solving easier
SSL tasks. By properly addressing the NPC effect, we reach a decoupled
contrastive learning (DCL) objective function, significantly improving SSL
efficiency. DCL can achieve competitive performance, requiring neither large
batches in SimCLR, momentum encoding in MoCo, or large epochs. We demonstrate
the usefulness of DCL in various benchmarks, while manifesting its robustness
being much less sensitive to suboptimal hyperparameters. Notably, our approach
achieves $66.9\%$ ImageNet top-1 accuracy using batch size 256 within 200
epochs pre-training, outperforming its baseline SimCLR by $5.1\%$. With further
optimized hyperparameters, DCL can improve the accuracy to $68.2\%$. We believe
DCL provides a valuable baseline for future contrastive learning-based SSL
studies.
- Abstract(参考訳): コントラスト学習(CL)は、自己教師あり学習(SSL)において最も成功したパラダイムの1つである。
原則として、同じイメージの2つの拡張された ``views'' は、近づいたらポジティブで、他のすべての画像は、さらに遠ざけられるように、ネガティブに考える。
しかしながら、CLベースのテクニックが驚くべき成功を収めた背景には、大規模なサンプルバッチや広範なトレーニングエポックなど、重い計算設定に依存することが多い。
ですから私たちは,これらの問題に取り組み,シンプルで効率的かつ競争力のあるコントラスト学習のベースラインを確立することを目指しています。
具体的には、理論的および実証的研究から、広く使用されているクロスエントロピー(InfoNCE)損失における顕著な負陽性結合(NPC)効果を同定し、バッチサイズに関して不適切な学習効率をもたらす。
実際、この現象は、小さなバッチでinfoNCE損失を最適化することが、SSLタスクの容易な解決に有効であるという点で無視される傾向にある。
NPC効果を適切に処理することにより、非結合型コントラスト学習(DCL)目標関数に到達し、SSL効率を大幅に改善する。
DCLは、SimCLRにおける大きなバッチ、MoCoにおけるモーメントエンコーディング、あるいは大規模なエポックを必要とせず、競争的なパフォーマンスを達成することができる。
様々なベンチマークでDCLの有用性を示す一方で、その頑健さは極小パラメーターに対する感度がはるかに低いことを示す。
特に、私たちのアプローチは、200エポック以内のバッチサイズ256を使用した6.9\%$ imagenet top-1精度を達成し、ベースラインsimclrを5.1\%$で上回っています。
さらに最適化されたハイパーパラメータにより、DCLは精度を68.2\%$に改善することができる。
私たちは、DCLが将来の対照的な学習ベースのSSL研究に価値あるベースラインを提供すると信じています。
関連論文リスト
- L^2CL: Embarrassingly Simple Layer-to-Layer Contrastive Learning for Graph Collaborative Filtering [33.165094795515785]
グラフニューラルネットワーク(GNN)は、最近、協調フィルタリングにおいて近隣の信号をモデル化するための効果的なアプローチとして登場した。
L2CLは、異なるレイヤの表現を対比する、原則的なレイヤ間コントラスト学習フレームワークである。
その結果,L2CLは,一対一のコントラスト学習パラダイムのみを用いて,固有の意味構造をキャプチャし,ノード表現の質を向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-07-19T12:45:21Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Supervised Contrastive Learning as Multi-Objective Optimization for
Fine-Tuning Large Pre-trained Language Models [3.759936323189417]
教師付きコントラスト学習(SCL)は,ほとんどの分類タスクにおいて優れた性能を発揮することが示されている。
本研究では,RoBERTa言語モデルの微調整フェーズにおける多目的最適化問題としてSCL問題を定式化する。
論文 参考訳(メタデータ) (2022-09-28T15:13:58Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。