論文の概要: Synthetic Hard Negative Samples for Contrastive Learning
- arxiv url: http://arxiv.org/abs/2304.02971v2
- Date: Mon, 17 Apr 2023 15:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 20:18:07.570217
- Title: Synthetic Hard Negative Samples for Contrastive Learning
- Title(参考訳): コントラスト学習のための合成ハード負サンプル
- Authors: Hengkui Dong, Xianzhong Long, Yun Li, Lei Chen
- Abstract要約: 本稿では,コントラスト学習のための新しい特徴レベル手法,すなわち合成硬質負のサンプルをサンプリングする手法を提案する。
負試料を混合し, アンカー試料と他の負試料とのコントラストを制御して, より硬い負試料を生成する。
提案手法は,画像データセットの分類性能を向上し,既存の手法に容易に組み込むことができる。
- 参考スコア(独自算出の注目度): 8.776888865665024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has emerged as an essential approach for self-supervised
learning in visual representation learning. The central objective of
contrastive learning is to maximize the similarities between two augmented
versions of an image (positive pairs), while minimizing the similarities
between different images (negative pairs). Recent studies have demonstrated
that harder negative samples, i.e., those that are more difficult to
differentiate from the anchor sample, perform a more crucial function in
contrastive learning. This paper proposes a novel feature-level method, namely
sampling synthetic hard negative samples for contrastive learning (SSCL), to
exploit harder negative samples more effectively. Specifically, 1) we generate
more and harder negative samples by mixing negative samples, and then sample
them by controlling the contrast of anchor sample with the other negative
samples; 2) considering the possibility of false negative samples, we further
debias the negative samples. Our proposed method improves the classification
performance on different image datasets and can be readily integrated into
existing methods.
- Abstract(参考訳): コントラスト学習は,視覚表現学習における自己教師あり学習に不可欠なアプローチとして現れてきた。
コントラスト学習の中心的な目的は、画像の2つの拡張バージョン(正のペア)間の類似性を最大化し、異なる画像(負のペア)間の類似性を最小化することである。
近年の研究では、難しい負のサンプル、すなわちアンカーサンプルとの区別が難しいサンプルは、コントラスト学習においてより重要な役割を果たすことが示されている。
本稿では, 難解な負のサンプルをより効果的に活用するために, コントラスト学習のための合成ハードネガティブサンプル(sscl)をサンプリングする新しい特徴量法を提案する。
具体的には
1) 負の試料を混合してより強固な負の試料を生成し, アンカー試料と他の負の試料とのコントラストを制御して試料を採取する。
2) 偽陰性試料の可能性を考慮すると, 偽陰性試料はさらに減少する。
提案手法は,異なる画像データセットの分類性能を改善し,既存の手法に容易に統合できる。
関連論文リスト
- Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Rethinking Samples Selection for Contrastive Learning: Mining of
Potential Samples [5.586563813796839]
対照的な学習は、2つの画像が同じカテゴリに属しているかどうかを予測する。
正と負の両方のサンプルを考慮し、2つの側面から潜在的サンプルをマイニングする。
CIFAR10, CIFAR100, TinyImagenetでそれぞれ88.57%, 61.10%, および36.69%のTop-1精度を達成した。
論文 参考訳(メタデータ) (2023-11-01T08:08:06Z) - Generating Counterfactual Hard Negative Samples for Graph Contrastive
Learning [22.200011046576716]
グラフコントラスト学習は教師なしグラフ表現学習の強力なツールである。
最近の研究は、通常、正のサンプルと同一のトレーニングバッチから、または外部の無関係なグラフから、負のサンプルをサンプリングする。
我々は、textbfCounterfactual Mechanism を利用して、TextbfContrastive Learning のための人工的硬質負のサンプルを生成する方法を提案する。
論文 参考訳(メタデータ) (2022-07-01T02:19:59Z) - Hard Negative Sampling Strategies for Contrastive Representation
Learning [4.1531215150301035]
UnReMixは、アンカーの類似性、モデルの不確実性、代表性を考慮に入れた、ハードネガティブなサンプリング戦略である。
いくつかのベンチマークによる実験結果から,UnReMixは正のサンプル選択を改良し,その後,最先端のコントラスト学習法と比較した場合の下流性能が向上することが示された。
論文 参考訳(メタデータ) (2022-06-02T17:55:15Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。