論文の概要: A Theoretical Study of Inductive Biases in Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.14699v1
- Date: Sun, 27 Nov 2022 01:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:16:55.137647
- Title: A Theoretical Study of Inductive Biases in Contrastive Learning
- Title(参考訳): コントラスト学習における帰納バイアスの理論的研究
- Authors: Jeff Z. HaoChen, Tengyu Ma
- Abstract要約: モデルクラスから派生した帰納的バイアスの効果を取り入れた,自己指導型学習に関する最初の理論的分析を行った。
モデルが限られたキャパシティを持つ場合、コントラスト表現はモデルアーキテクチャと互換性のある特定のクラスタリング構造を復元することを示す。
- 参考スコア(独自算出の注目度): 32.98250585760665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding self-supervised learning is important but challenging. Previous
theoretical works study the role of pretraining losses, and view neural
networks as general black boxes. However, the recent work of Saunshi et al.
argues that the model architecture -- a component largely ignored by previous
works -- also has significant influences on the downstream performance of
self-supervised learning. In this work, we provide the first theoretical
analysis of self-supervised learning that incorporates the effect of inductive
biases originating from the model class. In particular, we focus on contrastive
learning -- a popular self-supervised learning method that is widely used in
the vision domain. We show that when the model has limited capacity,
contrastive representations would recover certain special clustering structures
that are compatible with the model architecture, but ignore many other
clustering structures in the data distribution. As a result, our theory can
capture the more realistic setting where contrastive representations have much
lower dimensionality than the number of clusters in the data distribution. We
instantiate our theory on several synthetic data distributions, and provide
empirical evidence to support the theory.
- Abstract(参考訳): 自己指導型学習を理解することは重要だが難しい。
以前の理論研究では、損失の事前学習の役割を研究し、ニューラルネットワークを一般的なブラックボックスと見なす。
しかし、saunshiらによる最近の研究は、モデルアーキテクチャー(以前の作品にほとんど無視されているコンポーネント)は、自己監督学習の下流のパフォーマンスに大きな影響を与えていると主張している。
本研究では,モデルクラスから派生した帰納的バイアスの効果を取り入れた,自己指導型学習に関する最初の理論的分析を行う。
特に,視覚領域で広く使われている自己指導型学習手法であるコントラスト学習に注目した。
モデルがキャパシティに制限がある場合、コントラスト表現はモデルアーキテクチャと互換性のある特定の特殊なクラスタリング構造を回復するが、データ分散における他の多くのクラスタリング構造は無視する。
その結果,本理論は,データ分布のクラスタ数よりもコントラスト表現の次元がはるかに低い,より現実的な設定を捉えることができる。
我々は、いくつかの合成データ分布に関する理論をインスタンス化し、理論を支持する実証的な証拠を提供する。
関連論文リスト
- Cross-Entropy Is All You Need To Invert the Data Generating Process [29.94396019742267]
経験的現象は、教師付きモデルが線形な方法で変化の解釈可能な要因を学習できることを示唆している。
近年の自己教師型学習の進歩により,データ生成過程を反転させることで潜在構造を復元できることが示されている。
標準分類タスクにおいても,モデルが線形変換までの変動の基底構造因子の表現を学習することが証明された。
論文 参考訳(メタデータ) (2024-10-29T09:03:57Z) - An Effective Theory of Bias Amplification [18.648588509429167]
機械学習モデルは、データに存在するバイアスをキャプチャして増幅し、社会的グループ間で異なるテストパフォーマンスをもたらす。
本稿では、従来のニューラルネットワークを単純化した状態下でモデル化するリッジ回帰の文脈において、正確な解析理論を提案する。
我々の理論は、機械学習バイアスの統一的で厳密な説明を提供し、バイアス増幅やマイノリティグループバイアスのような現象に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-07T08:43:22Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Learn to Accumulate Evidence from All Training Samples: Theory and
Practice [7.257751371276488]
Evidential Deep Learningは、決定論的ニューラルネットワークの不確実性を認識するための、原則的かつ計算的に効率的な方法を提供する。
既存の明らかなアクティベーション関数はゼロエビデンス領域を生成するため、モデルがそのような領域に落ちてくるトレーニングサンプルから学ぶことができない。
我々の理論的基盤に基づく顕在的活性化関数のより深い分析は、新しい正則化器の設計を刺激する。
論文 参考訳(メタデータ) (2023-06-19T18:27:12Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - The Power of Contrast for Feature Learning: A Theoretical Analysis [42.20116348668721]
対照的な学習は、標準的な自己エンコーダや生成的敵ネットワークよりも優れていることを示す。
また、教師付きコントラスト学習におけるラベル付きデータの影響についても説明する。
論文 参考訳(メタデータ) (2021-10-06T03:10:28Z) - Contrastive Learning Inverts the Data Generating Process [36.30995987986073]
一般に使用されるインフォアンスファミリーに属する目標で訓練されたフィードフォワードモデルは、観測データの基底となる生成モデルを暗黙的に反転させることを学習する。
本理論は, コントラスト学習, 生成モデル, 非線形独立成分分析の基本的な関係を明らかにする。
論文 参考訳(メタデータ) (2021-02-17T16:21:54Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。