論文の概要: A Non-Asymptotic Moreau Envelope Theory for High-Dimensional Generalized
Linear Models
- arxiv url: http://arxiv.org/abs/2210.12082v1
- Date: Fri, 21 Oct 2022 16:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:18:34.862411
- Title: A Non-Asymptotic Moreau Envelope Theory for High-Dimensional Generalized
Linear Models
- Title(参考訳): 高次元一般化線形モデルに対する非漸近的モロー包絡理論
- Authors: Lijia Zhou and Frederic Koehler and Pragya Sur and Danica J.
Sutherland and Nathan Srebro
- Abstract要約: ガウス空間の任意のクラスの線型予測器を示す新しい一般化境界を証明した。
私たちは、Zhou et al. (2021) の「最適化率」を直接回復するために、有限サンプルバウンドを使用します。
ローカライズされたガウス幅を用いた有界一般化の適用は、一般に経験的リスク最小化に対してシャープであることを示す。
- 参考スコア(独自算出の注目度): 33.36787620121057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove a new generalization bound that shows for any class of linear
predictors in Gaussian space, the Rademacher complexity of the class and the
training error under any continuous loss $\ell$ can control the test error
under all Moreau envelopes of the loss $\ell$. We use our finite-sample bound
to directly recover the "optimistic rate" of Zhou et al. (2021) for linear
regression with the square loss, which is known to be tight for minimal
$\ell_2$-norm interpolation, but we also handle more general settings where the
label is generated by a potentially misspecified multi-index model. The same
argument can analyze noisy interpolation of max-margin classifiers through the
squared hinge loss, and establishes consistency results in spiked-covariance
settings. More generally, when the loss is only assumed to be Lipschitz, our
bound effectively improves Talagrand's well-known contraction lemma by a factor
of two, and we prove uniform convergence of interpolators (Koehler et al. 2021)
for all smooth, non-negative losses. Finally, we show that application of our
generalization bound using localized Gaussian width will generally be sharp for
empirical risk minimizers, establishing a non-asymptotic Moreau envelope theory
for generalization that applies outside of proportional scaling regimes,
handles model misspecification, and complements existing asymptotic Moreau
envelope theories for M-estimation.
- Abstract(参考訳): ガウス空間の任意の種類の線型予測器、クラスのラデマッハ複雑性および任意の連続損失$\ell$の下でのトレーニング誤差を示す新しい一般化境界を証明し、損失$\ell$のモローエンベロープの全てのテスト誤差を制御することができる。
有限サンプル境界を用いてZhou et al. (2021) の「最適化率」を2乗損失を伴う線形回帰を直接回収するが、これは最小$$\ell_2$-norm補間に対してきついことが知られているが、ラベルが潜在的に不特定な多重インデックスモデルによって生成されるようなより一般的な設定も扱う。
同じ議論は、正方形ヒンジ損失によるmax-margin分類器のノイズ補間を解析し、スパイク共分散設定で一貫性を確立できる。
より一般に、損失がリプシッツであると仮定すると、我々の境界は、タラグランのよく知られた収縮補題を2倍に効果的に改善し、すべての滑らかで非負の損失に対する補間子(koehler et al. 2021)の一様収束を証明する。
最後に、局所ガウス幅を用いた一般化の適用は、一般に経験的リスク最小化に対して鋭くなり、比例スケーリング規則外に適用可能な一般化のための非漸近モローエンベロープ理論を確立し、モデルの不特定を扱い、M推定のための既存の漸近モローエンベロープ理論を補完することを示す。
関連論文リスト
- Precise Asymptotic Generalization for Multiclass Classification with
Overparameterized Linear Models [4.093769373833101]
Subramanian et al.'22 の予想では、データポイント、特徴、クラスの数はすべて一緒になる。
我々の新しい下限は情報理論の強い逆に似ており、それらは誤分類率が0か1に近づくことを証明している。
厳密な解析の鍵はハンソン・ライトの不等式の新しい変種であり、スパースラベルの多重クラス問題に広く有用である。
論文 参考訳(メタデータ) (2023-06-23T00:59:15Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - Fine-grained analysis of non-parametric estimation for pairwise learning [9.676007573960383]
ペアワイズ学習における非パラメトリック推定の一般化性能について検討する。
我々の結果は、ランキング、AUC、ペアワイズ回帰、メートル法、類似性学習など、幅広いペアワイズ学習問題に対処するために利用できる。
論文 参考訳(メタデータ) (2023-05-31T08:13:14Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - On the Importance of Gradient Norm in PAC-Bayesian Bounds [92.82627080794491]
対数ソボレフ不等式の縮約性を利用する新しい一般化法を提案する。
我々は、この新たな損失段階的ノルム項が異なるニューラルネットワークに与える影響を実証的に分析する。
論文 参考訳(メタデータ) (2022-10-12T12:49:20Z) - Double Descent in Random Feature Models: Precise Asymptotic Analysis for
General Convex Regularization [4.8900735721275055]
より広い凸正規化項のクラスの下で回帰の一般化を正確に表現する。
我々は,本フレームワークの予測能力を数値的に示すとともに,非漸近的状態においても予測されたテスト誤差が正確であることを実験的に示す。
論文 参考訳(メタデータ) (2022-04-06T08:59:38Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Interpolation can hurt robust generalization even when there is no noise [76.3492338989419]
リッジの正規化による一般化の回避は,ノイズがなくても大幅に一般化できることを示す。
この現象は線形回帰と分類の両方のロバストなリスクを証明し、したがってロバストなオーバーフィッティングに関する最初の理論的結果を与える。
論文 参考訳(メタデータ) (2021-08-05T23:04:15Z) - Uniform Convergence of Interpolators: Gaussian Width, Norm Bounds, and
Benign Overfitting [35.78863301525758]
任意の仮説クラスにおける補間子の一般化誤差に対して一様収束を保証する。
ユークリッド標準球への一般境界の適用は、最小ノルム補間器に対するBartlett et al. (2020) の一貫性を回復する。
我々は、少なくともいくつかの設定において、ノルムベースの一般化境界がどのように説明され、良性過剰適合の分析に使用されるかを示す。
論文 参考訳(メタデータ) (2021-06-17T06:58:10Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。