論文の概要: InfoNCE Loss Provably Learns Cluster-Preserving Representations
- arxiv url: http://arxiv.org/abs/2302.07920v1
- Date: Wed, 15 Feb 2023 19:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:55:57.540685
- Title: InfoNCE Loss Provably Learns Cluster-Preserving Representations
- Title(参考訳): InfoNCEの損失はおそらくクラスタ保存表現を学習する
- Authors: Advait Parulekar, Liam Collins, Karthikeyan Shanmugam, Aryan Mokhtari,
Sanjay Shakkottai
- Abstract要約: InfoNCEが有限個の負のサンプルで学習した表現は、データのクラスタに対して一致していることを示す。
我々の主な成果は、InfoNCEが有限個の負のサンプルで学んだ表現もまた、データのクラスタと一致していることを示すことである。
- 参考スコア(独自算出の注目度): 54.28112623495274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of contrasting learning is to learn a representation that preserves
underlying clusters by keeping samples with similar content, e.g. the
``dogness'' of a dog, close to each other in the space generated by the
representation. A common and successful approach for tackling this unsupervised
learning problem is minimizing the InfoNCE loss associated with the training
samples, where each sample is associated with their augmentations (positive
samples such as rotation, crop) and a batch of negative samples (unrelated
samples). To the best of our knowledge, it was unanswered if the representation
learned by minimizing the InfoNCE loss preserves the underlying data clusters,
as it only promotes learning a representation that is faithful to
augmentations, i.e., an image and its augmentations have the same
representation. Our main result is to show that the representation learned by
InfoNCE with a finite number of negative samples is also consistent with
respect to clusters in the data, under the condition that the augmentation sets
within clusters may be non-overlapping but are close and intertwined, relative
to the complexity of the learning function class.
- Abstract(参考訳): 学習とは、例えば犬の'dogness'のように、同じ内容のサンプルを表現によって生成された空間内で互いに近接して保持することで、基盤となるクラスタを保存する表現を学習することである。
この教師なし学習問題に取り組むための一般的かつ成功したアプローチは、トレーニングサンプルに関連する情報損失を最小化することであり、各サンプルは、その増強(回転、作物などの正のサンプル)と負のサンプル(無関係のサンプル)のバッチに関連付けられる。
我々の知る限りでは、InfoNCEの損失を最小限にして学習した表現が基盤となるデータクラスタを保存している場合、それは、拡張に忠実な表現、すなわち画像とその拡張が同じ表現を持つことの学習のみを促進するためである。
本研究の主な成果は,クラスタ内の増分集合が重複しないが,学習関数クラスの複雑性に比較して密接かつ絡み合っているという条件の下で,InfoNCEが有限個の負のサンプルで学んだ表現が,データのクラスタと一致していることを示すことである。
関連論文リスト
- CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。