論文の概要: Spectal Harmonics: Bridging Spectral Embedding and Matrix Completion in
Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2305.19818v2
- Date: Mon, 30 Oct 2023 15:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 23:51:39.305322
- Title: Spectal Harmonics: Bridging Spectral Embedding and Matrix Completion in
Self-Supervised Learning
- Title(参考訳): スペクトル調和:自己監督学習におけるスペクトル埋め込みと行列補完
- Authors: Marina Munkhoeva, Ivan Oseledets
- Abstract要約: 自己監督的手法は、ラベルの形で明らかに監督されることなくデータのセマンティクスを尊重する学習表現に対する、一見したところのアプローチによって、大きな注目を集めた。
現代自己監督的表現学習法で使われる損失の動物園の作業について、一貫性があり理論的に根拠づけられた理解を構築する試みとして、成長する文献が既に出版されている。
- 参考スコア(独自算出の注目度): 6.5151694672131875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised methods received tremendous attention thanks to their
seemingly heuristic approach to learning representations that respect the
semantics of the data without any apparent supervision in the form of labels. A
growing body of literature is already being published in an attempt to build a
coherent and theoretically grounded understanding of the workings of a zoo of
losses used in modern self-supervised representation learning methods. In this
paper, we attempt to provide an understanding from the perspective of a Laplace
operator and connect the inductive bias stemming from the augmentation process
to a low-rank matrix completion problem. To this end, we leverage the results
from low-rank matrix completion to provide theoretical analysis on the
convergence of modern SSL methods and a key property that affects their
downstream performance.
- Abstract(参考訳): 自己監督的な手法は、ラベルの形で明らかな監督なしにデータのセマンティクスを尊重する学習表現に対する、一見ヒューリスティックなアプローチによって大きな注目を集めた。
現代の自己監督表現学習法で使われる損失の動物園の作業について、一貫性と理論的に根拠のある理解を構築するために、文学の集団がすでに出版されている。
本稿では,ラプラス演算子の観点からの理解を提供し,拡張過程に起因する帰納的バイアスを低ランク行列補完問題に結びつける。
この目的のために,低ランク行列補完の結果を利用して,最新のssl手法の収束と,その下流性能に影響を与える重要な特性を理論的に解析する。
関連論文リスト
- Connectivity Shapes Implicit Regularization in Matrix Factorization Models for Matrix Completion [2.8948274245812335]
行列完備化問題の解法として,行列分解の暗黙的正則化について検討する。
我々は、観測データの接続が暗黙のバイアスにおいて重要な役割を果たすことを経験的に発見する。
我々の研究は、行列分解モデルにおけるデータ接続、トレーニングダイナミクス、暗黙の正規化の間の複雑な相互作用を明らかにする。
論文 参考訳(メタデータ) (2024-05-22T15:12:14Z) - The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - A phase transition between positional and semantic learning in a solvable model of dot-product attention [30.96921029675713]
学習可能な,低次元の問合せとキーデータを備えた非次元自己注意層として,高次モデルドット積注意法について検討した。
位置注意機構(それぞれの位置に基づくトークンを含む)と意味注意機構(それぞれの意味に基づいて互いに結びついているトークンを含む)と、サンプルの複雑さが増大する前者から後者への遷移が示される。
論文 参考訳(メタデータ) (2024-02-06T11:13:54Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Understanding Self-Supervised Learning of Speech Representation via
Invariance and Redundancy Reduction [0.45060992929802207]
自己教師付き学習(SSL)は、ラベルのないデータから柔軟な音声表現を学習するための有望なパラダイムとして登場した。
本研究は,人間の知覚における冗長性低下の理論に触発されたSSL技術であるBarlow Twins(BT)を実証分析した。
論文 参考訳(メタデータ) (2023-09-07T10:23:59Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - A Free Lunch from the Noise: Provable and Practical Exploration for
Representation Learning [55.048010996144036]
ある雑音仮定の下では、対応するマルコフ遷移作用素の線型スペクトル特性を自由な閉形式で得られることを示す。
本稿では,スペクトルダイナミクス埋め込み(SPEDE)を提案する。これはトレードオフを破り,雑音の構造を利用して表現学習のための楽観的な探索を完遂する。
論文 参考訳(メタデータ) (2021-11-22T19:24:57Z) - Towards the Generalization of Contrastive Self-Supervised Learning [11.889992921445849]
本稿では, 自己教師付き事前学習モデルが下流タスクにどのように一般化するかを理論的に説明する。
さらに,SimCLR と Barlow Twins についても検討する。
論文 参考訳(メタデータ) (2021-11-01T07:39:38Z) - Disambiguation of weak supervision with exponential convergence rates [88.99819200562784]
教師付き学習では、データは不完全で差別的な情報で注釈付けされる。
本稿では,ある入力から潜在的な対象のセットが与えられる弱い監督の事例である部分的ラベリングに焦点を当てる。
弱い監督から完全な監督を回復する実証的曖昧化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。