論文の概要: Generalization bounds for deep learning
- arxiv url: http://arxiv.org/abs/2012.04115v2
- Date: Wed, 9 Dec 2020 15:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 05:02:59.821895
- Title: Generalization bounds for deep learning
- Title(参考訳): ディープラーニングの一般化
- Authors: Guillermo Valle-P\'erez, Ard A. Louis
- Abstract要約: ディープラーニングの一般化は、近年の理論的および実証的研究のトピックである。
教師あり学習における深層学習モデルの一般化誤差を予測する手法として,Dedeiderataを提案する。
我々は, 一般化誤差上限に着目し, アルゴリズムとデータに対する仮定による境界の分類を導入する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalization in deep learning has been the topic of much recent theoretical
and empirical research. Here we introduce desiderata for techniques that
predict generalization errors for deep learning models in supervised learning.
Such predictions should 1) scale correctly with data complexity; 2) scale
correctly with training set size; 3) capture differences between architectures;
4) capture differences between optimization algorithms; 5) be quantitatively
not too far from the true error (in particular, be non-vacuous); 6) be
efficiently computable; and 7) be rigorous. We focus on generalization error
upper bounds, and introduce a categorisation of bounds depending on assumptions
on the algorithm and data. We review a wide range of existing approaches, from
classical VC dimension to recent PAC-Bayesian bounds, commenting on how well
they perform against the desiderata.
We next use a function-based picture to derive a marginal-likelihood
PAC-Bayesian bound. This bound is, by one definition, optimal up to a
multiplicative constant in the asymptotic limit of large training sets, as long
as the learning curve follows a power law, which is typically found in practice
for deep learning problems. Extensive empirical analysis demonstrates that our
marginal-likelihood PAC-Bayes bound fulfills desiderata 1-3 and 5. The results
for 6 and 7 are promising, but not yet fully conclusive, while only desideratum
4 is currently beyond the scope of our bound. Finally, we comment on why this
function-based bound performs significantly better than current parameter-based
PAC-Bayes bounds.
- Abstract(参考訳): ディープラーニングの一般化は、近年の理論的および実証的研究のトピックである。
本稿では,教師あり学習における深層学習モデルの一般化誤差を予測する手法について紹介する。
このような予測は、1)データ複雑性で正しくスケールする、2) トレーニングセットのサイズで正しくスケールする、3) アーキテクチャ間の差異をキャプチャする、3) 最適化アルゴリズム間の差異をキャプチャする、4) 真のエラー(特に空でない)から遠くない、(6) 効率的に計算可能である、(7) 厳密である、といった予測である。
我々は, 一般化誤差上限に着目し, アルゴリズムとデータに対する仮定による境界の分類を導入する。
我々は、古典的なvc次元から最近のpac-ベイズ境界まで、幅広い既存のアプローチをレビューし、デシダラタに対するパフォーマンスについてコメントした。
次に関数ベースの画像を用いて、辺状のPAC-ベイジアン境界を導出する。
この境界は、1つの定義により、学習曲線が力の法則に従う限り、大きな訓練集合の漸近極限における乗法定数まで最適である。
広範囲にわたる実証分析により、我々の辺縁状のPAC-Bayes境界がdeiderata 1-3および5を満たすことが示された。
6と7の結果は有望だが、まだ完全には確定していない。
最後に、この関数ベースのバウンドが現在のパラメータベースのpac-bayesバウンドよりも著しく優れている理由についてコメントする。
関連論文リスト
- An Information-Theoretic Approach to Generalization Theory [27.87324770020133]
学習アルゴリズムと学習データ間の依存度を定量化する情報理論境界を解析する。
一定のプライバシーパラメータを持つ場合であっても,最大リークが制限されたアルゴリズムにより一般化が保証されることを示す。
論文 参考訳(メタデータ) (2024-08-20T10:08:21Z) - Learning-Augmented Algorithms for Online Linear and Semidefinite
Programming [9.849604820019394]
Semidefinite Programming (SDP) は線形および二次的に制約されたプログラミングを一般化する統一フレームワークである。
SDPをカバーするための制約がオンラインに届くと、最適解を近似するためには、既知の不可能な結果が存在する。
予測器が正確であれば、これらの不可能な結果を効率よく回避し、最適解に対する定数係数近似を達成できることが示される。
論文 参考訳(メタデータ) (2022-09-21T19:16:29Z) - Generalization Bounds for Data-Driven Numerical Linear Algebra [24.961270871124217]
データ駆動アルゴリズムは、トレーニングされた入力サンプルから学習することで、未知のアプリケーション固有の分布からの入力に内部構造やパラメータを適用することができる。
いくつかの最近の研究は、数値線形代数における問題にこのアプローチを適用し、性能において顕著な経験的利得を得た。
本研究では、Gupta と Roughgarden が提案するデータ駆動アルゴリズム選択のためのPAC学習フレームワークにおいて、これらのアルゴリズムの一般化境界を証明する。
論文 参考訳(メタデータ) (2022-06-16T02:23:45Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - A General Framework for the Practical Disintegration of PAC-Bayesian
Bounds [2.516393111664279]
我々は、分解された境界を与えるために原性を持つ新しいPAC-ベイズ一般化境界を導入する。
我々の境界は容易に最適化でき、学習アルゴリズムの設計に使うことができる。
論文 参考訳(メタデータ) (2021-02-17T09:36:46Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Refined bounds for algorithm configuration: The knife-edge of dual class
approximability [94.83809668933021]
トレーニングセットが、トレーニングセット上でのパラメータの平均メトリックのパフォーマンスが、予想される将来的なパフォーマンスに最も近いことを保証するために、どの程度の規模が必要かを調査する。
この近似が L-無限ノルムの下で成り立つなら、強いサンプル複雑性境界を与えることができる。
我々は、コンピュータ科学において最も強力なツールの一つである整数プログラミングの文脈において、我々の限界を実証的に評価する。
論文 参考訳(メタデータ) (2020-06-21T15:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。