論文の概要: Bayes Complexity of Learners vs Overfitting
- arxiv url: http://arxiv.org/abs/2303.07874v1
- Date: Mon, 13 Mar 2023 13:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 15:03:18.878806
- Title: Bayes Complexity of Learners vs Overfitting
- Title(参考訳): 学習者のベイズ複雑性と過度適合
- Authors: Grzegorz G{\l}uch, Rudiger Urbanke
- Abstract要約: 関数の複雑性という新しい概念が、PACベイズのような一般化境界を支配していることを示す。
従来の研究とは対照的に、我々は自然に複数の層を持つニューラルネットワークに一般化している。
上界の導出により、2層と4層ニューラルネットワークの良好な一般化に必要なサンプル数の分離が図れる。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new notion of complexity of functions and we show that it has
the following properties: (i) it governs a PAC Bayes-like generalization bound,
(ii) for neural networks it relates to natural notions of complexity of
functions (such as the variation), and (iii) it explains the generalization gap
between neural networks and linear schemes. While there is a large set of
papers which describes bounds that have each such property in isolation, and
even some that have two, as far as we know, this is a first notion that
satisfies all three of them. Moreover, in contrast to previous works, our
notion naturally generalizes to neural networks with several layers.
Even though the computation of our complexity is nontrivial in general, an
upper-bound is often easy to derive, even for higher number of layers and
functions with structure, such as period functions. An upper-bound we derive
allows to show a separation in the number of samples needed for good
generalization between 2 and 4-layer neural networks for periodic functions.
- Abstract(参考訳): 関数の複雑性という新しい概念を導入し、次のような性質を持つことを示す。
i) PACベイズ様一般化境界を統治する。
(ii)ニューラルネットワークでは、関数の複雑さ(変動など)の自然な概念と関係し、
(iii)ニューラルネットワークと線形スキームの一般化ギャップを説明する。
そのような性質をそれぞれ独立に持つ境界を記述した大量の論文や、我々が知る限りでは2つの論文でさえあるが、これはこれら3つ全てを満たす最初の概念である。
さらに、従来の研究とは対照的に、我々は自然に複数の層を持つニューラルネットワークに一般化している。
複雑性の計算は一般には自明ではないが、周期関数のような構造を持つ高層層や関数であっても、上界は導出しやすいことが多い。
上界のwe導出により、周期関数のための2層と4層ニューラルネットワークのよい一般化に必要なサンプル数を分離できる。
関連論文リスト
- Spectral complexity of deep neural networks [2.099922236065961]
我々は,ネットワークアーキテクチャの複雑さを特徴付けるために,制限場の角パワースペクトルを用いる。
そこで我々は,ニューラルネットワークを低次,スパース,高次と分類する。
本稿では,この分類が標準アクティベーション関数の様々な特徴,特にReLUネットワークの空間特性を如何に強調するかを示す。
論文 参考訳(メタデータ) (2024-05-15T17:55:05Z) - Structure of universal formulas [13.794391803767617]
本稿では,大域近似特性と無限VC次元の弱い性質を結合するクラス階層を導入する。
活性化するニューロンの層が1つ以上ある固定サイズニューラルネットワークは任意の有限集合上の関数を近似できないことを示す。
任意の有限集合上の関数を近似する2層ニューラルネットワークを含む関数族を例に挙げるが、定義領域全体においてそれを行うことができない。
論文 参考訳(メタデータ) (2023-11-07T11:50:25Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Memorization with neural nets: going beyond the worst case [5.662924503089369]
実際には、ディープニューラルネットワークはトレーニングデータを簡単に補間できることが多い。
しかし、実世界のデータについては、暗記能力によって提案されるよりもネットワークサイズが小さいような良質な構造の存在を直感的に期待する。
2つのクラスを持つ固定有限データセットを与えられた場合、高い確率で3層ニューラルネットワークを時間内に補間する単純なランダム化アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-30T10:06:05Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - A Measure of the Complexity of Neural Representations based on Partial
Information Decomposition [0.0]
ニューラルネットワークでは、タスク関連情報はニューロンのグループによって共同で表現される。
情報理論の最近の拡張である部分的情報分解(PID)が、これらの異なる貢献をいかに解消するかを示す。
複数のニューロンにまたがる情報へのアクセスの難しさを定量化する「表現複雑度」の尺度を導入する。
論文 参考訳(メタデータ) (2022-09-21T15:33:11Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - On the Expected Complexity of Maxout Networks [0.0]
近年の研究では、深いReLUネットワークの実際的な複雑さは理論的な最大値からは程遠いことが示されている。
本研究では、この現象は、最大(マルチモーメント)アクティベーション関数を持つネットワークでも発生することを示す。
また、パラメータ空間は、広く異なる複雑さを持つ多次元領域を持ち、期待される複雑さの非自明な下界を得ることを示す。
論文 参考訳(メタデータ) (2021-07-01T11:36:32Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。