論文の概要: Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression
- arxiv url: http://arxiv.org/abs/2306.00788v3
- Date: Thu, 18 Jan 2024 16:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 20:31:04.017794
- Title: Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression
- Title(参考訳): RKHS近似と回帰による強化に基づく自己監督表現学習の理解
- Authors: Runtian Zhai, Bingbin Liu, Andrej Risteski, Zico Kolter, Pradeep
Ravikumar
- Abstract要約: 最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
- 参考スコア(独自算出の注目度): 53.15502562048627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is critical to the empirical success of modern
self-supervised representation learning, such as contrastive learning and
masked language modeling. However, a theoretical understanding of the exact
role of augmentation remains limited. Recent work has built the connection
between self-supervised learning and the approximation of the top eigenspace of
a graph Laplacian operator, suggesting that learning a linear probe atop such
representation can be connected to RKHS regression. Building on this insight,
this work delves into a statistical analysis of augmentation-based pretraining.
Starting from the isometry property, a geometric characterization of the target
function given by the augmentation, we disentangle the effects of the model and
the augmentation, and prove two generalization bounds that are free of model
complexity. Our first bound works for an arbitrary encoder, where the
prediction error is decomposed as the sum of an estimation error incurred by
fitting a linear probe with RKHS regression, and an approximation error
entailed by RKHS approximation. Our second bound specifically addresses the
case where the encoder is near-optimal, that is it approximates the top-d
eigenspace of the RKHS induced by the augmentation. A key ingredient in our
analysis is the augmentation complexity, which we use to quantitatively compare
different augmentations and analyze their impact on downstream performance.
- Abstract(参考訳): データ拡張は、対照的な学習やマスキング言語モデリングなど、現代の自己指導型表現学習の実証的成功に不可欠である。
しかし、拡張の正確な役割に関する理論的理解は限られている。
最近の研究は、自己教師付き学習とグラフラプラシア作用素の頂点固有空間の近似の関係を構築し、そのような表現上の線形プローブの学習がRKHS回帰に結びつくことを示唆している。
この知見に基づいて、この研究は拡張に基づく事前訓練の統計的分析に発展する。
アイソメトリ特性から、拡張によって与えられる対象関数の幾何学的特徴付けとして、モデルの効果と拡張の影響を解き、モデルの複雑さのない2つの一般化境界を証明する。
最初のバウンドは任意のエンコーダで動作し、予測誤差は、線形プローブをrkhs回帰に適合させることで生じる推定誤差と、rkhs近似による近似誤差の和として分解される。
2つ目の境界線は、エンコーダがほぼ最適である場合、すなわち、増大によって誘導されるRKHSのトップd固有空間を近似する。
私たちの分析で重要な要素は、異なる拡張を定量的に比較し、下流のパフォーマンスに与える影響を分析するために使用される拡張複雑さです。
関連論文リスト
- Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - Koopman Kernel Regression [6.116741319526748]
クープマン作用素理論は線形時間不変(LTI)ODEによる予測のキャラクタリゼーションに有効なパラダイムであることを示す。
我々は、LTI力学系への変換のみにまたがる、普遍的なクープマン不変核再生ヒルベルト空間(RKHS)を導出する。
実験では、Koopman演算子やシーケンシャルデータ予測器と比較して予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2023-05-25T16:22:22Z) - Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning [47.904127007515925]
本稿では,従来の時間差学習アルゴリズムの変種について検討する。
我々は、圧縮されたTDアルゴリズムと、最適化に広く用いられているエラーフィードバック機構が組み合わさって、漸近的でない近似を保証することを証明した。
特に、これらは一般圧縮演算子と線形関数近似とマルコフサンプリングを併用したタンデムの誤差フィードバックを考慮に入れたRLにおける最初の有限時間結果である。
論文 参考訳(メタデータ) (2023-01-03T04:09:38Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。