論文の概要: Understanding Dimensional Collapse in Contrastive Self-supervised
Learning
- arxiv url: http://arxiv.org/abs/2110.09348v1
- Date: Mon, 18 Oct 2021 14:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 19:16:51.287742
- Title: Understanding Dimensional Collapse in Contrastive Self-supervised
Learning
- Title(参考訳): 対照的自己教師付き学習における次元崩壊の理解
- Authors: Li Jing, Pascal Vincent, Yann LeCun, Yuandong Tian
- Abstract要約: 非競合的手法は、異なる性質のより少ない崩壊問題、すなわち次元的崩壊に悩まされることを示す。
この理論に触発されて、トレーニング可能なプロジェクタを使わずに表現空間を直接最適化する、DirectCLRと呼ばれる新しいコントラスト学習手法を提案する。
- 参考スコア(独自算出の注目度): 57.98014222570084
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Self-supervised visual representation learning aims to learn useful
representations without relying on human annotations. Joint embedding approach
bases on maximizing the agreement between embedding vectors from different
views of the same image. Various methods have been proposed to solve the
collapsing problem where all embedding vectors collapse to a trivial constant
solution. Among these methods, contrastive learning prevents collapse via
negative sample pairs. It has been shown that non-contrastive methods suffer
from a lesser collapse problem of a different nature: dimensional collapse,
whereby the embedding vectors end up spanning a lower-dimensional subspace
instead of the entire available embedding space. Here, we show that dimensional
collapse also happens in contrastive learning. In this paper, we shed light on
the dynamics at play in contrastive learning that leads to dimensional
collapse. Inspired by our theory, we propose a novel contrastive learning
method, called DirectCLR, which directly optimizes the representation space
without relying on a trainable projector. Experiments show that DirectCLR
outperforms SimCLR with a trainable linear projector on ImageNet.
- Abstract(参考訳): 自己教師付き視覚表現学習は、人間のアノテーションに頼らずに有用な表現を学ぶことを目的としている。
共同埋め込みアプローチは、同じ画像の異なるビューからの埋め込みベクトル間の一致を最大化する。
全ての埋め込みベクトルが自明な定数解に崩壊するという崩壊問題の解法が提案されている。
これらの方法のうち、対照学習は負のサンプルペアによる崩壊を防ぐ。
次元崩壊(英語版)により、埋め込みベクトルは、利用可能な埋め込み空間全体ではなく、低次元の部分空間にまたがることになる。
ここでは, 次元的崩壊も対照的な学習で起こることを示す。
本稿では,次元の崩壊につながる対照的な学習において,遊びの力学に光を当てる。
この理論に触発されて,学習可能なプロジェクタに頼らずに表現空間を直接最適化するdirectclrと呼ばれる新しいコントラスト学習法を提案する。
実験の結果、DirectCLRはImageNet上でトレーニング可能な線形プロジェクタでSimCLRより優れています。
関連論文リスト
- Preventing Collapse in Contrastive Learning with Orthonormal Prototypes (CLOP) [0.0]
CLOPは、クラス埋め込み間の線形部分空間の形成を促進することにより、神経崩壊を防止するために設計された、新しい半教師付き損失関数である。
CLOPは性能を向上し,学習速度やバッチサイズにまたがる安定性が向上することを示す。
論文 参考訳(メタデータ) (2024-03-27T15:48:16Z) - Alignment and Outer Shell Isotropy for Hyperbolic Graph Contrastive
Learning [69.6810940330906]
高品質なグラフ埋め込みを学習するための新しいコントラスト学習フレームワークを提案する。
具体的には、階層的なデータ不変情報を効果的にキャプチャするアライメントメトリックを設計する。
双曲空間において、木の性質に関連する葉と高さの均一性に対処する必要があることを示す。
論文 参考訳(メタデータ) (2023-10-27T15:31:42Z) - Preventing Dimensional Collapse of Incomplete Multi-View Clustering via
Direct Contrastive Learning [0.14999444543328289]
我々は、新しい不完全なマルチビューコントラストクラスタリングフレームワークを提案する。
プロジェクションヘッドに頼ることなく、次元の崩壊を効果的に回避する。
5つのパブリックデータセット上で、最先端のクラスタリング結果を達成する。
論文 参考訳(メタデータ) (2023-03-22T00:21:50Z) - ContraNorm: A Contrastive Learning Perspective on Oversmoothing and
Beyond [13.888935924826903]
オーバースムーシング(Oversmoothing)は、広範囲のグラフニューラルネットワーク(GNN)とトランスフォーマーに共通する現象である。
埋め込み空間における表現を暗黙的に破壊するContraNormと呼ばれる新しい正規化層を提案する。
提案する正規化層は,パラメータのオーバーヘッドが無視できるGNNやTransformerに容易に統合できる。
論文 参考訳(メタデータ) (2023-03-12T04:04:51Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Towards Demystifying Representation Learning with Non-contrastive
Self-supervision [82.80118139087676]
自己教師型学習の非競合的手法は、同一画像の2つのビュー間の距離を最小化することにより、表現を学習する。
Tian el al. (2021) は最初の質問に対して最初の試みを行い、予測器を直接設定する DirectPred を提案した。
単純な線形ネットワークにおいて、DirectSet($alpha$)は望ましいプロジェクション行列を確実に学習し、下流タスクにおけるサンプルの複雑さを減少させることを示す。
論文 参考訳(メタデータ) (2021-10-11T00:48:05Z) - Orthogonal Jacobian Regularization for Unsupervised Disentanglement in
Image Generation [64.92152574895111]
直交ジャコビアン正規化法(OroJaR)を提案する。
提案手法は, 絡み合った, 制御可能な画像生成に有効であり, 最先端の手法に対して好適に機能する。
論文 参考訳(メタデータ) (2021-08-17T15:01:46Z) - VICReg: Variance-Invariance-Covariance Regularization for
Self-Supervised Learning [43.96465407127458]
本稿では,組込みの分散に関する単純な正規化項を用いて,崩壊問題を明確に回避する手法であるvicregを紹介する。
VICRegは、いくつかの下流タスクで、アートの状態と同等の結果を得る。
論文 参考訳(メタデータ) (2021-05-11T09:53:21Z) - Understanding self-supervised Learning Dynamics without Contrastive
Pairs [72.1743263777693]
自己監視学習(SSL)に対する対照的アプローチは、同じデータポイントの2つの拡張ビュー間の距離を最小限にすることで表現を学習する。
BYOLとSimSiamは、負のペアなしで素晴らしいパフォーマンスを示す。
単純線形ネットワークにおける非コントラストSSLの非線形学習ダイナミクスについて検討する。
論文 参考訳(メタデータ) (2021-02-12T22:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。