論文の概要: Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization
- arxiv url: http://arxiv.org/abs/2011.09148v4
- Date: Wed, 15 Sep 2021 07:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:46:01.685852
- Title: Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization
- Title(参考訳): ガウス混合系の二項分類:支持ベクトルの欠如、良性オーバーフィッティング、正規化
- Authors: Ke Wang, Christos Thrampoulidis
- Abstract要約: 生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
- 参考スコア(独自算出の注目度): 39.35822033674126
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep neural networks generalize well despite being exceedingly
overparameterized and being trained without explicit regularization. This
curious phenomenon has inspired extensive research activity in establishing its
statistical principles: Under what conditions is it observed? How do these
depend on the data and on the training algorithm? When does regularization
benefit generalization? While such questions remain wide open for deep neural
nets, recent works have attempted gaining insights by studying simpler, often
linear, models. Our paper contributes to this growing line of work by examining
binary linear classification under a generative Gaussian mixture model.
Motivated by recent results on the implicit bias of gradient descent, we study
both max-margin SVM classifiers (corresponding to logistic loss) and min-norm
interpolating classifiers (corresponding to least-squares loss). First, we
leverage an idea introduced in [V. Muthukumar et al., arXiv:2005.08054, (2020)]
to relate the SVM solution to the min-norm interpolating solution. Second, we
derive novel non-asymptotic bounds on the classification error of the latter.
Combining the two, we present novel sufficient conditions on the covariance
spectrum and on the signal-to-noise ratio (SNR) under which interpolating
estimators achieve asymptotically optimal performance as overparameterization
increases. Interestingly, our results extend to a noisy model with constant
probability noise flips. Contrary to previously studied discriminative data
models, our results emphasize the crucial role of the SNR and its interplay
with the data covariance. Finally, via a combination of analytical arguments
and numerical demonstrations we identify conditions under which the
interpolating estimator performs better than corresponding regularized
estimates.
- Abstract(参考訳): ディープニューラルネットワークは、過度に過パラメータ化され、明示的な正規化なしでトレーニングされているにもかかわらず、うまく一般化している。
この奇妙な現象は、その統計原理を確立するための広範な研究活動に影響を与えている。
これらはデータとトレーニングアルゴリズムにどのように依存するのか?
正規化はいつ一般化に役立つのか?
このような質問はディープニューラルネットに対して広く開かれているが、最近の研究はより単純でしばしば線形なモデルを研究することによって洞察を得ることを試みている。
本研究は,ガウス混合モデルに基づく線形二元分類を検証することによって,この発展過程に寄与する。
近年の勾配降下の暗黙のバイアスに動機づけられ,max-margin svm分類器(ロジスティック損失に対応)とmin-norm補間分類器(最小二乗損失に対応)の両方について検討した。
まず、[V. Muthukumar et al., arXiv:2005.08054, (2020)]で導入されたアイデアを利用して、SVM解とmin-norm補間解を関連付ける。
第二に、後者の分類誤差に関する新しい非漸近境界を導出する。
この2つを組み合わせることで、オーバーパラメータ化が増加するにつれて、補間推定器が漸近的に最適な性能を発揮するような、共分散スペクトルと信号対雑音比(SNR)に関する新しい条件が提示される。
興味深いことに、この結果は一定確率ノイズフリップを持つノイズモデルに拡張される。
従来研究されてきた判別データモデルとは対照的に,snrとデータ共分散の相互作用は,snrの重要な役割を強調する。
最後に,解析的議論と数値実験の組み合わせにより,補間推定器が対応する正規化推定値よりも優れた性能を示す条件を同定する。
関連論文リスト
- Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Max-affine regression via first-order methods [7.12511675782289]
最大アフィンモデルは信号処理と統計学の応用においてユビキタスに現れる。
最大アフィン回帰に対する勾配降下(GD)とミニバッチ勾配降下(SGD)の非漸近収束解析を行った。
論文 参考訳(メタデータ) (2023-08-15T23:46:44Z) - Precise Asymptotic Generalization for Multiclass Classification with
Overparameterized Linear Models [4.093769373833101]
Subramanian et al.'22 の予想では、データポイント、特徴、クラスの数はすべて一緒になる。
我々の新しい下限は情報理論の強い逆に似ており、それらは誤分類率が0か1に近づくことを証明している。
厳密な解析の鍵はハンソン・ライトの不等式の新しい変種であり、スパースラベルの多重クラス問題に広く有用である。
論文 参考訳(メタデータ) (2023-06-23T00:59:15Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Benign Overfitting in Multiclass Classification: All Roads Lead to
Interpolation [39.02017410837255]
多クラス線形分類における良性オーバーフィッティングについて検討する。
分離可能なデータに対する以下のトレーニングアルゴリズムを検討する。
MNI分類器の精度に基づいた新しい境界を導出する。
論文 参考訳(メタデータ) (2021-06-21T05:34:36Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。