論文の概要: Generalization in Kernel Regression Under Realistic Assumptions
- arxiv url: http://arxiv.org/abs/2312.15995v2
- Date: Tue, 20 Feb 2024 07:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 19:49:25.117894
- Title: Generalization in Kernel Regression Under Realistic Assumptions
- Title(参考訳): 実数的仮定によるカーネル回帰の一般化
- Authors: Daniel Barzilai and Ohad Shamir
- Abstract要約: 共通カーネルや任意の正規化、ノイズ、任意の入力次元、サンプル数に対して厳密な境界を提供する。
以上の結果から,高入力次元における過剰適合,固定次元におけるほぼ誘電過剰適合,正規化回帰に対する明示的な収束率が示唆された。
副産物として、カーネルシステムで訓練されたニューラルネットワークの時間依存境界を得る。
- 参考スコア(独自算出の注目度): 41.345620270267446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is by now well-established that modern over-parameterized models seem to
elude the bias-variance tradeoff and generalize well despite overfitting noise.
Many recent works attempt to analyze this phenomenon in the relatively
tractable setting of kernel regression. However, as we argue in detail, most
past works on this topic either make unrealistic assumptions, or focus on a
narrow problem setup. This work aims to provide a unified theory to upper bound
the excess risk of kernel regression for nearly all common and realistic
settings. Specifically, we provide rigorous bounds that hold for common kernels
and for any amount of regularization, noise, any input dimension, and any
number of samples. Furthermore, we provide relative perturbation bounds for the
eigenvalues of kernel matrices, which may be of independent interest. These
reveal a self-regularization phenomenon, whereby a heavy tail in the
eigendecomposition of the kernel provides it with an implicit form of
regularization, enabling good generalization. When applied to common kernels,
our results imply benign overfitting in high input dimensions, nearly tempered
overfitting in fixed dimensions, and explicit convergence rates for regularized
regression. As a by-product, we obtain time-dependent bounds for neural
networks trained in the kernel regime.
- Abstract(参考訳): 現在までに、現代の過度パラメータ化モデルはバイアス分散トレードオフを緩和し、過度なノイズにもかかわらず一般化しているように思われる。
近年の多くの研究は、この現象を比較的難解なカーネル回帰の環境で解析しようと試みている。
しかし、我々が詳しく論じているように、このトピックに関する過去のほとんどの作業は非現実的な仮定をするか、あるいは狭い問題設定に集中するかのどちらかです。
この研究は、ほとんどすべての共通かつ現実的な設定に対して、カーネル回帰の過剰なリスクを上限とする統一理論を提供することを目的としている。
具体的には、共通カーネルおよび任意の量の正規化、ノイズ、任意の入力次元、および任意の数のサンプルに対して保持される厳密な境界を提供する。
さらに、カーネル行列の固有値に対する相対摂動境界(独立興味を持つかもしれない)も提供する。
これらは自己正則化現象を示し、カーネルの固有分解の重い尾は正則化の暗黙の形式を提供し、良い一般化を可能にする。
一般的なカーネルに適用すると、結果は高い入力次元における過剰フィッティング、固定次元におけるほぼ温和な過剰フィッティング、正規化回帰に対する明示的な収束率を示す。
副産物として、カーネルシステムで訓練されたニューラルネットワークの時間依存境界を得る。
関連論文リスト
- High-Dimensional Kernel Methods under Covariate Shift: Data-Dependent Implicit Regularization [83.06112052443233]
本稿では,共変量シフト下での高次元におけるカーネルリッジの回帰について検討する。
バイアス分散分解により、再重み付け戦略が分散を減少させることができることを理論的に証明する。
偏見について,任意の偏見の正則化を解析し,偏見が正則化の異なる尺度で非常に異なる振る舞いをすることができることを示す。
論文 参考訳(メタデータ) (2024-06-05T12:03:27Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - More Than a Toy: Random Matrix Models Predict How Real-World Neural
Representations Generalize [94.70343385404203]
ほとんどの理論解析は、カーネル回帰においても定性的現象を捉えるには不十分であることがわかった。
古典的GCV推定器は局所確率行列法則が成立するたびに一般化リスクに収束することを示す。
この結果から, ランダム行列理論は, 実際には神経表現の性質を理解する上で重要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-11T18:59:01Z) - Interpolation can hurt robust generalization even when there is no noise [76.3492338989419]
リッジの正規化による一般化の回避は,ノイズがなくても大幅に一般化できることを示す。
この現象は線形回帰と分類の両方のロバストなリスクを証明し、したがってロバストなオーバーフィッティングに関する最初の理論的結果を与える。
論文 参考訳(メタデータ) (2021-08-05T23:04:15Z) - Towards Understanding Generalization via Decomposing Excess Risk
Dynamics [13.4379473119565]
一般化力学を解析してアルゴリズム依存境界(安定性など)を導出する。
ニューラルネットは、ノイズの嵌合時に緩やかな収束率を示すという観測から着想を得て、余剰リスクダイナミクスを分解することを提案する。
分解の枠組みの下では、新しい境界は安定性に基づく境界と一様収束境界よりも理論的および経験的証拠とよく一致している。
論文 参考訳(メタデータ) (2021-06-11T03:42:45Z) - How rotational invariance of common kernels prevents generalization in
high dimensions [8.508198765617196]
カーネルリッジ回帰は、低次元設定で最小の最適速度を達成するためによく知られている。
最近の研究は、基底真理関数と入力データの分布を仮定して、カーネル回帰の整合性を確立する。
論文 参考訳(メタデータ) (2021-04-09T08:27:37Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Optimal Rates of Distributed Regression with Imperfect Kernels [0.0]
本研究では,分散カーネルの分散化について,分割法と分割法を用いて検討する。
ノイズフリー環境では,カーネルリッジ回帰がN-1$よりも高速に実現できることを示す。
論文 参考訳(メタデータ) (2020-06-30T13:00:16Z) - Spectral Bias and Task-Model Alignment Explain Generalization in Kernel
Regression and Infinitely Wide Neural Networks [17.188280334580195]
トレーニングデータセットを越えた一般化は、マシンラーニングの主な目標である。
最近のディープニューラルネットワークの観測は、古典統計学の従来の知恵と矛盾している。
より多くのデータが、カーネルがノイズや表現できないときに一般化を損なう可能性があることを示す。
論文 参考訳(メタデータ) (2020-06-23T17:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。