論文の概要: Hard Negative Sampling via Regularized Optimal Transport for Contrastive
Representation Learning
- arxiv url: http://arxiv.org/abs/2111.03169v3
- Date: Thu, 14 Dec 2023 22:58:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 19:54:47.996878
- Title: Hard Negative Sampling via Regularized Optimal Transport for Contrastive
Representation Learning
- Title(参考訳): コントラスト表現学習のための正規化最適輸送によるハード負サンプリング
- Authors: Ruijie Jiang, Prakash Ishwar, Shuchin Aeron
- Abstract要約: 本研究では、教師なしコントラスト表現学習のためのハードネガティブサンプリング分布の設計問題について検討する。
本稿では,最大(Worst-case)一般化されたコントラスト学習損失を最小限に抑える表現を求める新しいmin-maxフレームワークの提案と解析を行う。
- 参考スコア(独自算出の注目度): 13.474603286270836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of designing hard negative sampling distributions for
unsupervised contrastive representation learning. We propose and analyze a
novel min-max framework that seeks a representation which minimizes the maximum
(worst-case) generalized contrastive learning loss over all couplings (joint
distributions between positive and negative samples subject to marginal
constraints) and prove that the resulting min-max optimum representation will
be degenerate. This provides the first theoretical justification for
incorporating additional regularization constraints on the couplings. We
re-interpret the min-max problem through the lens of Optimal Transport (OT)
theory and utilize regularized transport couplings to control the degree of
hardness of negative examples. Through experiments we demonstrate that the
negative samples generated from our designed negative distribution are more
similar to the anchor than those generated from the baseline negative
distribution. We also demonstrate that entropic regularization yields negative
sampling distributions with parametric form similar to that in a recent
state-of-the-art negative sampling design and has similar performance in
multiple datasets. Utilizing the uncovered connection with OT, we propose a new
ground cost for designing the negative distribution and show improved
performance of the learned representation on downstream tasks compared to the
representation learned when using squared Euclidean cost.
- Abstract(参考訳): 本研究では,教師なしコントラスト表現学習のためのハード負サンプリング分布の設計問題について検討する。
本稿では,全ての結合(正と負のサンプル間の結合分布)に対する最大(Worst-case)のコントラスト学習損失を最小限に抑える表現を求める新しいmin-maxフレームワークの提案と解析を行い,結果のmin-max最適表現が退化することを証明する。
これは結合にさらなる正規化制約を組み込むための最初の理論的正当化を与える。
最適輸送(ot)理論のレンズを通してmin-max問題を再解釈し、正則輸送カップリングを用いて負の例の硬度を制御する。
実験により, 設計した負分布から生成した負試料は, ベースライン負分布から生成した試料よりもアンカーに類似することを示した。
また, エントロピー正則化は, 近年の最先端の負サンプリング設計と類似したパラメータ形式の負サンプリング分布を示し, 複数のデータセットで同様の性能を示した。
提案手法は,OTとの接続を解明し,正方形ユークリッドコストを用いて学習した表現と比較して,負の分布を設計し,下流タスクにおける学習表現の性能を向上させるための新たな基盤コストを提案する。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - NETS: A Non-Equilibrium Transport Sampler [15.58993313831079]
我々は、Non-Equilibrium Transport Sampler (NETS)と呼ばれるアルゴリズムを提案する。
NETSはJarzynskiの平等に基づいて、重要サンプリング(AIS)の亜種と見なすことができる。
このドリフトは、様々な目的関数の最小化であり、全て偏りのない方法で推定できることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:35:38Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Supervised Contrastive Learning with Heterogeneous Similarity for
Distribution Shifts [3.7819322027528113]
本稿では,教師付きコントラスト学習を用いた新たな正規化手法を提案する。
サブポピュレーションシフトや領域一般化などの分布シフトをエミュレートするベンチマークデータセットの実験は,提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-04-07T01:45:09Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Do More Negative Samples Necessarily Hurt in Contrastive Learning? [25.234544066205547]
提案手法は,下層の潜在クラスから正のペアをサンプリングすることによって生成する単純な理論的条件下で,表現の下流性能が負のサンプル数で低下しないことを示す。
また、フレームワークにおける最適な表現の構造的特徴も与える。
論文 参考訳(メタデータ) (2022-05-03T21:29:59Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。