論文の概要: Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation
- arxiv url: http://arxiv.org/abs/2210.10194v1
- Date: Tue, 18 Oct 2022 22:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:42:49.735934
- Title: Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation
- Title(参考訳): 配向・一様性・相関による原型コントラスト学習の再考
- Authors: Shentong Mo, Zhun Sun, Chao Li
- Abstract要約: 我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
- 参考スコア(独自算出の注目度): 24.794022951873156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive self-supervised learning (CSL) with a prototypical regularization
has been introduced in learning meaningful representations for downstream tasks
that require strong semantic information. However, to optimize CSL with a loss
that performs the prototypical regularization aggressively, e.g., the ProtoNCE
loss, might cause the "coagulation" of examples in the embedding space. That
is, the intra-prototype diversity of samples collapses to trivial solutions for
their prototype being well-separated from others. Motivated by previous works,
we propose to mitigate this phenomenon by learning Prototypical representation
through Alignment, Uniformity and Correlation (PAUC). Specifically, the
ordinary ProtoNCE loss is revised with: (1) an alignment loss that pulls
embeddings from positive prototypes together; (2) a uniformity loss that
distributes the prototypical level features uniformly; (3) a correlation loss
that increases the diversity and discriminability between prototypical level
features. We conduct extensive experiments on various benchmarks where the
results demonstrate the effectiveness of our method in improving the quality of
prototypical contrastive representations. Particularly, in the classification
down-stream tasks with linear probes, our proposed method outperforms the
state-of-the-art instance-wise and prototypical contrastive learning methods on
the ImageNet-100 dataset by 2.96% and the ImageNet-1K dataset by 2.46% under
the same settings of batch size and epochs.
- Abstract(参考訳): コントラスト型自己教師学習(CSL)は,強い意味情報を必要とする下流タスクの有意義な表現を学習するために導入された。
しかし、プロトタイプ正規化を積極的に行う損失(例えば、ProtoNCE損失)でCSLを最適化するには、埋め込み空間における例の「凝集」を引き起こす可能性がある。
つまり、原型内におけるサンプルの多様性は崩壊し、その原型が他のものとよく分離されるような簡単な解になる。
先行研究に動機づけられ,アライメント,一様性,相関(pauc)を通じて原型表現を学習することでこの現象を緩和する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配する均一性損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
そこで本手法の有効性を実証するために,様々なベンチマーク実験を行い,本手法の有効性を実証する。
特に線形プローブを用いたダウンストリーム処理において,提案手法は,imagenet-100データセットとimagenet-1kデータセットの2.96%,imagenet-1kデータセットの2.66%をバッチサイズとエポック設定で上回っている。
関連論文リスト
- Prototypical Contrastive Learning through Alignment and Uniformity for
Recommendation [6.790779112538357]
提案するアンダーライン・アライメントとアンダーライン・ユニフォーマル性によるインダーライン型コントラスト学習について述べる。
具体的には、まず、原点グラフから異なる拡張点間の整合性を確保するために、潜時空間としてプロトタイプを提案する。
明示的な負の欠如は、インスタンスとプロトタイプ間の整合性損失を直接最適化することで、次元的な崩壊の問題が容易に生じることを意味する。
論文 参考訳(メタデータ) (2024-02-03T08:19:26Z) - Supervised Contrastive Learning with Heterogeneous Similarity for
Distribution Shifts [3.7819322027528113]
本稿では,教師付きコントラスト学習を用いた新たな正規化手法を提案する。
サブポピュレーションシフトや領域一般化などの分布シフトをエミュレートするベンチマークデータセットの実験は,提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-04-07T01:45:09Z) - Siamese Prototypical Contrastive Learning [24.794022951873156]
コントラスト型自己教師学習(Contrastive Self-supervised Learning, CSL)は、大規模データから意味のある視覚的表現を教師なしアプローチで学習する実践的ソリューションである。
本稿では,単純かつ効果的なコントラスト学習フレームワークを導入することで,この問題に対処する。
重要な洞察は、シアメスタイルのメートル法損失を用いて、原型間特徴間の距離を増大させながら、原型内特徴と一致させることである。
論文 参考訳(メタデータ) (2022-08-18T13:25:30Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。