論文の概要: Contrasting the landscape of contrastive and non-contrastive learning
- arxiv url: http://arxiv.org/abs/2203.15702v1
- Date: Tue, 29 Mar 2022 16:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 12:43:21.136803
- Title: Contrasting the landscape of contrastive and non-contrastive learning
- Title(参考訳): コントラスト学習と非コントラスト学習のランドスケープ
- Authors: Ashwini Pokle, Jinjin Tian, Yuchen Li, Andrej Risteski
- Abstract要約: 単純なデータモデルであっても,非競合性損失は非衝突性悪い最小値の前提となることを示す。
トレーニングプロセスがこれらのミニマを避けるものではないことを示す。
- 参考スコア(独自算出の注目度): 25.76544128487728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lot of recent advances in unsupervised feature learning are based on
designing features which are invariant under semantic data augmentations. A
common way to do this is contrastive learning, which uses positive and negative
samples. Some recent works however have shown promising results for
non-contrastive learning, which does not require negative samples. However, the
non-contrastive losses have obvious "collapsed" minima, in which the encoders
output a constant feature embedding, independent of the input. A folk
conjecture is that so long as these collapsed solutions are avoided, the
produced feature representations should be good. In our paper, we cast doubt on
this story: we show through theoretical results and controlled experiments that
even on simple data models, non-contrastive losses have a preponderance of
non-collapsed bad minima. Moreover, we show that the training process does not
avoid these minima.
- Abstract(参考訳): 教師なし機能学習の最近の進歩は、セマンティックデータ拡張の下で不変な機能の設計に基づいている。
これを行う一般的な方法は、正のサンプルと負のサンプルを使用するコントラスト学習である。
しかし、いくつかの最近の研究は、負のサンプルを必要としない非矛盾学習に有望な結果を示している。
しかし、非競合損失は明らかに「崩壊した」ミニマであり、エンコーダは入力とは独立に一定の特徴埋め込みを出力する。
民間の予想では、これらの崩壊した解が避けられる限り、生成した特徴表現は良いはずである。
本論では, 単純なデータモデルにおいても, 非競合性損失は非衝突性ミニマの前兆となる, 理論的結果と制御実験について論じる。
さらに、トレーニングプロセスはこれらのミニマを避けないことを示す。
関連論文リスト
- Understanding Collapse in Non-Contrastive Learning [122.2499276246997]
モデルがデータセットサイズに対して小さすぎる場合,SimSiam表現が部分次元崩壊することを示す。
本稿では,この崩壊の度合いを計測し,微調整やラベルを使わずに下流のタスク性能を予測できる指標を提案する。
論文 参考訳(メタデータ) (2022-09-29T17:59:55Z) - Exploring the Impact of Negative Samples of Contrastive Learning: A Case
Study of Sentence Embedding [14.295787044482136]
文埋め込みのための負のサンプル列を持つモーメントコントラスト学習モデル、すなわちMoCoSEを提案する。
我々は最大トレーサブル距離測定値を定義し、テキストが負のサンプルの履歴情報からどの程度の差があるかを学習する。
実験の結果,最大トレーサブル距離が一定の範囲にある場合に最もよい結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-02-26T08:29:25Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data [1.7474352892977458]
道路走行シーンとリモートセンシング画像における分布外異常の検出方法を示す。
我々は,カバレッジ指向学習の目的と異なる解像度でサンプルを生成する能力により,共同で訓練された正規化フローを活用する。
結果として得られたモデルは、道路走行シーンとリモートセンシング画像におけるアウト・オブ・ディストリビューション検出のためのベンチマークに、新たな技術状況を設定した。
論文 参考訳(メタデータ) (2021-12-23T20:35:10Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - A Sober Look at the Unsupervised Learning of Disentangled
Representations and their Evaluation [63.042651834453544]
モデルとデータの両方に帰納的バイアスを伴わずに,非教師なしの非教師付き表現学習は不可能であることを示す。
異なる手法は、対応する損失によって「強化」された特性を効果的に強制するが、よく見分けられたモデルは監督なしでは特定できないように見える。
以上の結果から,遠絡学習における今後の研究は,帰納的バイアスと(単純に)監督の役割を明確化すべきであることが示唆された。
論文 参考訳(メタデータ) (2020-10-27T10:17:15Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Collective Loss Function for Positive and Unlabeled Learning [19.058269616452545]
本稿では,正と未ラベルのデータのみから学習する集合的損失関数を提案する。
その結果,cPU は現状の PU 学習方法より一貫して優れていた。
論文 参考訳(メタデータ) (2020-05-06T03:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。