論文の概要: VC Theoretical Explanation of Double Descent
- arxiv url: http://arxiv.org/abs/2205.15549v1
- Date: Tue, 31 May 2022 05:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 02:01:02.364012
- Title: VC Theoretical Explanation of Double Descent
- Title(参考訳): vcによる二重降下の理論的説明
- Authors: Eng Hock Lee and Vladimir Cherkassky
- Abstract要約: 本稿では、二重降下のVC-理論解析を行い、古典的なVC一般化境界によって完全に説明できることを示す。
本稿では,分析VCバウンドの分類問題に対する二重降下モデルへの応用について述べる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been growing interest in generalization performance of large
multilayer neural networks that can be trained to achieve zero training error,
while generalizing well on test data. This regime is known as 'second descent'
and it appears to contradict conventional view that optimal model complexity
should reflect optimal balance between underfitting and overfitting, aka the
bias-variance trade-off. This paper presents VC-theoretical analysis of double
descent and shows that it can be fully explained by classical VC generalization
bounds. We illustrate an application of analytic VC-bounds for modeling double
descent for classification problems, using empirical results for several
learning methods, such as SVM, Least Squares, and Multilayer Perceptron
classifiers. In addition, we discuss several possible reasons for
misinterpretation of VC-theoretical results in the machine learning community.
- Abstract(参考訳): テストデータに精通しながら、トレーニングエラーをゼロにする訓練が可能な、大規模多層ニューラルネットワークの一般化性能への関心が高まっている。
この体制は「第二の降下」として知られており、最適モデルの複雑さは過度な適合と過度な適合の最適なバランスを反映すべきであるという従来の見解とは矛盾している。
本稿では,二重降下のvc理論的解析を行い,古典vc一般化境界によって完全に説明できることを示す。
本稿では,SVM,Last Squares,Multilayer Perceptron分類器などの学習手法における実験結果を用いて,分析VCバウンドの分類問題のモデル化への応用について述べる。
また,機械学習コミュニティにおけるVC理論結果の誤解釈の可能性についても論じる。
関連論文リスト
- Understanding the Double Descent Phenomenon in Deep Learning [49.1574468325115]
このチュートリアルは、古典的な統計学習の枠組みを設定し、二重降下現象を導入する。
いくつかの例を見て、セクション2では、二重降下において重要な役割を果たすと思われる帰納的バイアスを導入している。
第3節は2つの線形モデルで二重降下を探索し、最近の関連する研究から他の視点を提供する。
論文 参考訳(メタデータ) (2024-03-15T16:51:24Z) - Class-wise Generalization Error: an Information-Theoretic Analysis [22.877440350595222]
本稿では,各クラスの一般化性能を定量化するクラス一般化誤差について検討する。
我々は、異なるニューラルネットワークにおける提案した境界を実験的に検証し、それらが複雑なクラス一般化エラーの振る舞いを正確に捉えていることを示す。
論文 参考訳(メタデータ) (2024-01-05T17:05:14Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Understanding the Robustness of Multi-modal Contrastive Learning to Distribution Shift [14.641747166801133]
CLIPのようなマルチモーダルな対照的な学習アプローチは、分散シフトに対して堅牢な学習表現において、顕著な成功を収めている。
MMCLの強靭性の背後にある2つのメカニズムを同定する。
理論的には、リッチキャプションを用いたロバストネスの利点を実証し、キャプション内の様々な種類の詳細を注釈付けする効果を探求する。
論文 参考訳(メタデータ) (2023-10-08T02:25:52Z) - A Theoretical Understanding of Shallow Vision Transformers: Learning,
Generalization, and Sample Complexity [71.11795737362459]
自己注意モジュールを持つViTは、最近多くのタスクで経験的な成功を収めた。
しかし、理論学習の一般化分析は、ほとんどノイズが多く、解答的である。
本稿では,分類タスクのための浅いViTの理論的解析を行った。
論文 参考訳(メタデータ) (2023-02-12T22:12:35Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z) - Optimal Regularization Can Mitigate Double Descent [29.414119906479954]
最適正則化を用いて二重発振現象を回避できるかどうかを検討した。
我々は、最適に調整された$ell$正規化が、ニューラルネットワークを含むより一般的なモデルの2重降下を可能にすることを実証的に実証した。
論文 参考訳(メタデータ) (2020-03-04T05:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。