論文の概要: A Probabilistic Model to explain Self-Supervised Representation Learning
- arxiv url: http://arxiv.org/abs/2402.01399v1
- Date: Fri, 2 Feb 2024 13:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 15:15:00.505599
- Title: A Probabilistic Model to explain Self-Supervised Representation Learning
- Title(参考訳): 自己監督型表現学習の確率論的モデル
- Authors: Alice Bizeul, Bernhard Sch\"olkopf and Carl Allen
- Abstract要約: 本稿では,データに対する生成潜在変数モデルを提案する。
比較的手法を含む識別的自己監督アルゴリズムのいくつかのファミリは、その表現上の潜在構造をほぼ誘導することを示した。
モデルを生成的に設定することで、SimVEは、一般的なベンチマーク上の以前のVAEメソッドよりもパフォーマンスを向上します。
- 参考スコア(独自算出の注目度): 17.643996974016854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) learns representations by leveraging an
auxiliary unsupervised task, such as classifying semantically related samples,
e.g. different data augmentations or modalities. Of the many approaches to SSL,
contrastive methods, e.g. SimCLR, CLIP and VicREG, have gained attention for
learning representations that achieve downstream performance close to that of
supervised learning. However, a theoretical understanding of the mechanism
behind these methods eludes. We propose a generative latent variable model for
the data and show that several families of discriminative self-supervised
algorithms, including contrastive methods, approximately induce its latent
structure over representations, providing a unifying theoretical framework. We
also justify links to mutual information and the use of a projection head.
Fitting our model generatively, as SimVE, improves performance over previous
VAE methods on common benchmarks (e.g. FashionMNIST, CIFAR10, CelebA), narrows
the gap to discriminative methods on _content_ classification and, as our
analysis predicts, outperforms them where _style_ information is required,
taking a step toward task-agnostic representations.
- Abstract(参考訳): 自己教師付き学習(SSL)は、データ拡張やモダリティなど、意味的に関連するサンプルを分類するなど、補助的な教師なしタスクを活用することで表現を学ぶ。
SSLへの多くのアプローチのうち、SimCLR、CLIP、VicREGといった対照的な手法は、教師付き学習に近い下流のパフォーマンスを実現する学習表現に注目を集めている。
しかし、これらの手法の背後にあるメカニズムに関する理論的理解は不要である。
本研究では,データに対する生成的潜在変数モデルを提案し,コントラスト法を含む数種類の識別的自己教師付きアルゴリズムが,表現上の潜在構造を近似的に誘導し,統一的な理論的枠組みを提供することを示した。
また,相互情報へのリンクと投影ヘッドの使用を正当化する。
simveのように、モデルが生成的に適合することで、共通のベンチマーク(例えば、fashionmnist、cifar10、celeba)における以前のvaeメソッドよりもパフォーマンスが向上し、_content_分類の差別的メソッドへのギャップが狭まります。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - ReSSL: Relational Self-Supervised Learning with Weak Augmentation [68.47096022526927]
自己教師付き学習は、データアノテーションなしで視覚表現を学ぶことに成功しました。
本稿では,異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナルSSLパラダイムを提案する。
提案したReSSLは,性能とトレーニング効率の両面で,従来の最先端アルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-20T06:53:07Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。