論文の概要: Benign overfitting in ridge regression
- arxiv url: http://arxiv.org/abs/2009.14286v1
- Date: Tue, 29 Sep 2020 20:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:14:23.217313
- Title: Benign overfitting in ridge regression
- Title(参考訳): リッジ回帰における良性過剰
- Authors: A. Tsigler (1) and P. L. Bartlett (1) ((1) UC Berkeley)
- Abstract要約: 過度にパラメータ化されたリッジ回帰に対する漸近的でない一般化境界を提供する。
最小あるいは負の正則化が小さい一般化誤差を得るのに十分であるかどうかを同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical learning theory suggests that strong regularization is needed to
learn a class with large complexity. This intuition is in contrast with the
modern practice of machine learning, in particular learning neural networks,
where the number of parameters often exceeds the number of data points. It has
been observed empirically that such overparametrized models can show good
generalization performance even if trained with vanishing or negative
regularization. The aim of this work is to understand theoretically how this
effect can occur, by studying the setting of ridge regression. We provide
non-asymptotic generalization bounds for overparametrized ridge regression that
depend on the arbitrary covariance structure of the data, and show that those
bounds are tight for a range of regularization parameter values. To our
knowledge this is the first work that studies overparametrized ridge regression
in such a general setting. We identify when small or negative regularization is
sufficient for obtaining small generalization error. On the technical side, our
bounds only require the data vectors to be i.i.d. sub-gaussian, while most
previous work assumes independence of the components of those vectors.
- Abstract(参考訳): 古典的学習理論は、複雑性が大きいクラスを学ぶためには強正則化が必要であることを示唆する。
この直観は、機械学習、特にニューラルネットワークの学習において、パラメータの数はしばしばデータポイントの数を超えるという現代の慣行とは対照的である。
このような過パラメータモデルは、消失あるいは負の正規化を訓練しても、優れた一般化性能を示すことが実証的に観察されている。
本研究の目的は、隆起回帰の設定を研究することにより、この効果がどのように起こるか理論的に理解することである。
我々は、データの任意の共分散構造に依存する過パラメータ化リッジ回帰に対する非漸近一般化境界を提供し、それらの境界が正規化パラメータ値の範囲に対して厳密であることを示す。
我々の知る限り、このような一般的な環境で過度にパラメータ化されたリッジ回帰を研究する最初の研究である。
最小あるいは負の正則化が小さな一般化誤差を得るのに十分であるかどうかを同定する。
技術的な面では、我々の境界はデータベクトルが準ガウス的であることしか必要としないが、以前のほとんどの研究はこれらのベクトルの成分の独立性を前提としている。
関連論文リスト
- The Star Geometry of Critic-Based Regularizer Learning [2.2530496464901106]
変分正規化は統計的推論タスクと逆問題の解法である。
近年の課題依存型レギュレータの学習は, 測定値と地上データとを統合して行われている。
このプロセスを通して学んだ正規化器の構造と、それが2つのデータ分布とどのように関係するかについては、ほとんど理論がない。
論文 参考訳(メタデータ) (2024-08-29T18:34:59Z) - Generalization in Kernel Regression Under Realistic Assumptions [41.345620270267446]
共通カーネルや任意の正規化、ノイズ、任意の入力次元、サンプル数に対して厳密な境界を提供する。
以上の結果から,高入力次元における過剰適合,固定次元におけるほぼ誘電過剰適合,正規化回帰に対する明示的な収束率が示唆された。
副産物として、カーネルシステムで訓練されたニューラルネットワークの時間依存境界を得る。
論文 参考訳(メタデータ) (2023-12-26T10:55:20Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - More Than a Toy: Random Matrix Models Predict How Real-World Neural
Representations Generalize [94.70343385404203]
ほとんどの理論解析は、カーネル回帰においても定性的現象を捉えるには不十分であることがわかった。
古典的GCV推定器は局所確率行列法則が成立するたびに一般化リスクに収束することを示す。
この結果から, ランダム行列理論は, 実際には神経表現の性質を理解する上で重要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-11T18:59:01Z) - More is Less: Inducing Sparsity via Overparameterization [2.885175627590247]
ディープラーニングでは、ニューラルネットワークを過度にパラメータ化する、すなわち、トレーニングサンプルよりも多くのパラメータを使用することが一般的である。
驚くほど驚くべきことに、(確率的な)勾配勾配によるニューラルネットワークを一般化すると、それは非常にうまく行く。
我々の証明は、流れのあるブレグマンの発散を分析することに依存している。
論文 参考訳(メタデータ) (2021-12-21T07:55:55Z) - Harmless interpolation in regression and classification with structured
features [21.064512161584872]
過度にパラメータ化されたニューラルネットワークは、ノイズの多いトレーニングデータに完全に適合するが、テストデータではうまく一般化する。
再生カーネルヒルベルト空間における上界回帰と分類リスクの一般かつ柔軟な枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-09T15:12:26Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。