論文の概要: Toward a Geometrical Understanding of Self-supervised Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2205.06926v1
- Date: Fri, 13 May 2022 23:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 13:55:22.779273
- Title: Toward a Geometrical Understanding of Self-supervised Contrastive
Learning
- Title(参考訳): 自己教師付きコントラスト学習の幾何学的理解に向けて
- Authors: Romain Cosentino, Anirvan Sengupta, Salman Avestimehr, Mahdi
Soltanolkotabi, Antonio Ortega, Ted Willke, Mariano Tepper
- Abstract要約: 自己教師付き学習(SSL)は、人間のアノテーションがなければ、伝達学習に有効なデータ表現を作成するための最重要技術の一つである。
メインストリームSSL技術は、エンコーダとプロジェクタという2つのカスケードニューラルネットワークを備えた、特定のディープニューラルネットワークアーキテクチャに依存している。
本稿では,データ拡張ポリシーの強みがデータ埋め込みに与える影響について検討する。
- 参考スコア(独自算出の注目度): 55.83778629498769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) is currently one of the premier techniques to
create data representations that are actionable for transfer learning in the
absence of human annotations. Despite their success, the underlying geometry of
these representations remains elusive, which obfuscates the quest for more
robust, trustworthy, and interpretable models. In particular, mainstream SSL
techniques rely on a specific deep neural network architecture with two
cascaded neural networks: the encoder and the projector. When used for transfer
learning, the projector is discarded since empirical results show that its
representation generalizes more poorly than the encoder's. In this paper, we
investigate this curious phenomenon and analyze how the strength of the data
augmentation policies affects the data embedding. We discover a non-trivial
relation between the encoder, the projector, and the data augmentation
strength: with increasingly larger augmentation policies, the projector, rather
than the encoder, is more strongly driven to become invariant to the
augmentations. It does so by eliminating crucial information about the data by
learning to project it into a low-dimensional space, a noisy estimate of the
data manifold tangent plane in the encoder representation. This analysis is
substantiated through a geometrical perspective with theoretical and empirical
results.
- Abstract(参考訳): 自己教師付き学習(SSL)は、現在、人間のアノテーションがなければ、転送学習に有効なデータ表現を作成するための最重要技術のひとつである。
彼らの成功にもかかわらず、これらの表現の根底にある幾何学は、より堅牢で信頼性があり、解釈可能なモデルへの探求を難なくしている。
特に主流のssl技術は、エンコーダとプロジェクタという2つのカスケードニューラルネットワークを備えた、特定のディープニューラルネットワークアーキテクチャに依存している。
転送学習に使用する場合、その表現がエンコーダよりも一般化しにくいことを示す経験的な結果から、プロジェクタは破棄される。
本稿では,この奇妙な現象を調査し,データ拡張ポリシーの強みがデータ埋め込みに与える影響を解析する。
エンコーダ,プロジェクタ,およびデータ拡張強度の非自明な関係を見出す。さらに大きな拡張ポリシーでは,プロジェクタはエンコーダではなく,より強く駆動され,拡張に不変となる。
これにより、エンコーダ表現におけるデータ多様体接面のノイズ推定である低次元空間に投影することを学習することで、データに関する重要な情報を排除することができる。
この分析は、理論的および経験的結果を伴う幾何学的視点を通して証明される。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Understanding Encoder-Decoder Structures in Machine Learning Using Information Measures [10.066310107046084]
機械学習(ML)におけるエンコーダデコーダ設計の役割をモデル化し理解するための新しい結果を提案する。
我々は、機械学習における予測構造を表現するために、情報満足度(IS)と相互情報損失(MIL)という2つの主要な情報概念を用いる。
論文 参考訳(メタデータ) (2024-05-30T19:58:01Z) - Exploring Compressed Image Representation as a Perceptual Proxy: A Study [1.0878040851638]
本稿では,解析変換をオブジェクト分類タスクと共同で訓練する,エンドツーエンドの学習画像圧縮を提案する。
本研究は、圧縮された潜在表現が、カスタマイズされたDNNベースの品質指標に匹敵する精度で人間の知覚距離判定を予測できることを確認した。
論文 参考訳(メタデータ) (2024-01-14T04:37:17Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Augmentation-aware Self-supervised Learning with Conditioned Projector [6.720605329045581]
自己教師付き学習(SSL)は、ラベルのないデータから学習するための強力な技術である。
本稿では,プロジェクタネットワークを改良し,表現空間の特徴に対する感受性を高めることを提案する。
提案手法は条件拡張型自己教師学習(CASSLE)と呼ばれ,通常の共同埋め込み型SSL手法に直接適用可能である。
論文 参考訳(メタデータ) (2023-05-31T12:24:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - IntroVAC: Introspective Variational Classifiers for Learning
Interpretable Latent Subspaces [6.574517227976925]
IntroVACは、追加ラベルから情報を活用することで、解釈可能な潜在部分空間を学習する。
IntroVACは、画像属性の微調整を可能にする潜在空間における意味のある方向を学習可能であることを示す。
論文 参考訳(メタデータ) (2020-08-03T10:21:41Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。