論文の概要: Good Classifiers are Abundant in the Interpolating Regime
- arxiv url: http://arxiv.org/abs/2006.12625v2
- Date: Thu, 4 Mar 2021 16:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:11:08.784217
- Title: Good Classifiers are Abundant in the Interpolating Regime
- Title(参考訳): 良い分類器は補間体制で豊富です
- Authors: Ryan Theisen, Jason M. Klusowski, Michael W. Mahoney
- Abstract要約: 補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
- 参考スコア(独自算出の注目度): 64.72044662855612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within the machine learning community, the widely-used uniform convergence
framework has been used to answer the question of how complex,
over-parameterized models can generalize well to new data. This approach bounds
the test error of the worst-case model one could have fit to the data, but it
has fundamental limitations. Inspired by the statistical mechanics approach to
learning, we formally define and develop a methodology to compute precisely the
full distribution of test errors among interpolating classifiers from several
model classes. We apply our method to compute this distribution for several
real and synthetic datasets, with both linear and random feature classification
models. We find that test errors tend to concentrate around a small typical
value $\varepsilon^*$, which deviates substantially from the test error of the
worst-case interpolating model on the same datasets, indicating that "bad"
classifiers are extremely rare. We provide theoretical results in a simple
setting in which we characterize the full asymptotic distribution of test
errors, and we show that these indeed concentrate around a value
$\varepsilon^*$, which we also identify exactly. We then formalize a more
general conjecture supported by our empirical findings. Our results show that
the usual style of analysis in statistical learning theory may not be
fine-grained enough to capture the good generalization performance observed in
practice, and that approaches based on the statistical mechanics of learning
may offer a promising alternative.
- Abstract(参考訳): 機械学習コミュニティの中で、広く使われている統一収束フレームワークは、過パラメータ化されたモデルが新しいデータにどのように一般化できるかという疑問に答えるために使われてきた。
このアプローチは、データに適合する最悪のケースモデルのテストエラーを境界とするが、基本的な制限がある。
統計力学の学習アプローチに着想を得て,複数のモデルクラスからの補間分類器間のテストエラーの分布を精度良く計算する手法を定式化し,開発する。
本稿では,この分布を線形およびランダムな特徴分類モデルを用いて,実データおよび合成データに対して計算する。
テストエラーは小さな典型値$\varepsilon^*$に集中する傾向にあり、これは同じデータセット上の最悪のケース補間モデルのテストエラーから大きく逸脱しており、"悪い"分類器は極めて稀であることを示している。
我々は、テストエラーの漸近分布を特徴付ける簡単な設定で理論的結果を提供し、これらが実際に$\varepsilon^*$の値に集中していることを示し、その値も正確に識別する。
次に、経験的発見によって支持されるより一般的な予想を定式化する。
以上の結果から,統計的学習理論の一般的な解析手法は,実際に観測された優れた一般化性能を捉えるには,十分にきめ細やかな粒度が得られず,統計的学習力学に基づくアプローチが有望な代替手段となる可能性が示唆された。
関連論文リスト
- Robust Distributed Learning: Tight Error Bounds and Breakdown Point
under Data Heterogeneity [11.2120847961379]
本稿では,より現実的な不均一性モデル,すなわち(G,B)-段階的な相似性について考察し,既存の理論よりも学習問題を扱えることを示す。
また、分散学習アルゴリズムの学習誤差に新たな低い境界があることも証明する。
論文 参考訳(メタデータ) (2023-09-24T09:29:28Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Testing for Overfitting [0.0]
オーバーフィッティング問題について議論し、トレーニングデータによる評価に標準値と集中値が成立しない理由を説明する。
本稿では,モデルの性能をトレーニングデータを用いて評価できる仮説テストを紹介し,議論する。
論文 参考訳(メタデータ) (2023-05-09T22:49:55Z) - A Statistical Model for Predicting Generalization in Few-Shot
Classification [6.158812834002346]
一般化誤差を予測するために,特徴分布のガウスモデルを導入する。
提案手法は, 相互検証戦略の離脱など, 代替案よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-13T10:21:15Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Testing for Typicality with Respect to an Ensemble of Learned
Distributions [5.850572971372637]
適合性のよい問題に対する一サンプルのアプローチは、オンラインテストに多大な計算上の利点をもたらす。
この設定において異常データを正しく否定する能力は、ベース分布のモデルの精度に依存する。
既成の正当性問題に対する既存の手法は、基底分布のモデルが学習されたという事実を考慮に入れない。
本稿では,アンサンブルの任意の構成員に対して,データが異常であれば異常データとなることを考慮し,密度モデルのアンサンブルを訓練することを提案する。
論文 参考訳(メタデータ) (2020-11-11T19:47:46Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。