論文の概要: Relaxing the Feature Covariance Assumption: Time-Variant Bounds for
Benign Overfitting in Linear Regression
- arxiv url: http://arxiv.org/abs/2202.06054v1
- Date: Sat, 12 Feb 2022 12:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 15:36:44.494051
- Title: Relaxing the Feature Covariance Assumption: Time-Variant Bounds for
Benign Overfitting in Linear Regression
- Title(参考訳): 特徴共分散推定の緩和:線形回帰における良性オーバーフィッティングのための時間変化境界
- Authors: Jing Xu, Jiaye Teng, Andrew Chi-Chih Yao
- Abstract要約: 我々は、min-norm解の代わりにトレーニング軌跡全体に対して良性オーバーフィットするという考えを一般化する。
既存の手法とは異なり、新たに提案された一般化境界は、特徴共分散の時変有効次元によって特徴づけられる。
- 参考スコア(独自算出の注目度): 4.650014631979071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benign overfitting demonstrates that overparameterized models can perform
well on test data while fitting noisy training data. However, it only considers
the final min-norm solution in linear regression, which ignores the algorithm
information and the corresponding training procedure. In this paper, we
generalize the idea of benign overfitting to the whole training trajectory
instead of the min-norm solution and derive a time-variant bound based on the
trajectory analysis. Starting from the time-variant bound, we further derive a
time interval that suffices to guarantee a consistent generalization error for
a given feature covariance. Unlike existing approaches, the newly proposed
generalization bound is characterized by a time-variant effective dimension of
feature covariance. By introducing the time factor, we relax the strict
assumption on the feature covariance matrix required in previous benign
overfitting under the regimes of overparameterized linear regression with
gradient descent. This paper extends the scope of benign overfitting, and
experiment results indicate that the proposed bound accords better with
empirical evidence.
- Abstract(参考訳): benign overfittingは、過パラメータモデルがノイズの多いトレーニングデータを適合させながら、テストデータでうまく機能することを示している。
しかし、線形回帰における最後のミンノルム解のみを考慮し、アルゴリズム情報と対応するトレーニング手順を無視する。
本稿では,min-norm解の代わりに学習軌跡全体に対する良性オーバーフィットの概念を一般化し,軌道解析に基づく時間変動境界を導出する。
時間変動境界から始めて、与えられた特徴共分散に対する一貫した一般化誤差を保証するのに十分な時間間隔を導出する。
既存のアプローチとは異なり、新しく提案された一般化境界は、特徴共変性の時間変化有効次元によって特徴づけられる。
時間因子を導入することで,前回の良性オーバーフィッティングにおいて要求される特徴共分散行列の厳密な仮定を,勾配降下を伴う過パラメータ線形回帰法の下で緩和する。
本稿では,良性オーバーフィッティングのスコープを拡張し,実験結果から,提案する境界条件が経験的証拠と合致することを示す。
関連論文リスト
- On the Geometry of Regularization in Adversarial Training: High-Dimensional Asymptotics and Generalization Bounds [11.30047438005394]
本研究では, 正規化ノルム $lVert cdot rVert$ を二項分類のための高次元対角訓練の文脈で選択する方法について検討する。
我々は、摂動サイズと$lVert cdot rVert$の最適選択との関係を定量的に評価し、データ不足状態において、摂動が大きくなるにつれて、正則化のタイプが敵の訓練にとってますます重要になっていることを確認する。
論文 参考訳(メタデータ) (2024-10-21T14:53:12Z) - A Statistical Theory of Regularization-Based Continual Learning [10.899175512941053]
線形回帰タスクの順序に基づく正規化に基づく連続学習の統計的解析を行う。
まず、全てのデータが同時に利用可能であるかのように得られたオラクル推定器の収束率を導出する。
理論解析の副産物は、早期停止と一般化された$ell$-regularizationの等価性である。
論文 参考訳(メタデータ) (2024-06-10T12:25:13Z) - Understanding Generalization of Federated Learning via Stability:
Heterogeneity Matters [1.4502611532302039]
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
一般化性能は、現実世界のアプリケーションに適用された機械学習モデルを評価する上で重要な指標である。
論文 参考訳(メタデータ) (2023-06-06T16:12:35Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Towards Understanding Generalization via Decomposing Excess Risk
Dynamics [13.4379473119565]
一般化力学を解析してアルゴリズム依存境界(安定性など)を導出する。
ニューラルネットは、ノイズの嵌合時に緩やかな収束率を示すという観測から着想を得て、余剰リスクダイナミクスを分解することを提案する。
分解の枠組みの下では、新しい境界は安定性に基づく境界と一様収束境界よりも理論的および経験的証拠とよく一致している。
論文 参考訳(メタデータ) (2021-06-11T03:42:45Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Generalization Error of Generalized Linear Models in High Dimensions [25.635225717360466]
任意の非線形性を持つニューラルネットワークを特徴付けるためのフレームワークを提供する。
正規ロジスティック回帰が学習に与える影響を解析する。
また,本モデルでは,特別事例の学習と配布の事例も捉えている。
論文 参考訳(メタデータ) (2020-05-01T02:17:47Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。