論文の概要: The Restricted Isometry of ReLU Networks: Generalization through Norm
Concentration
- arxiv url: http://arxiv.org/abs/2007.00479v1
- Date: Wed, 1 Jul 2020 13:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:44:56.094552
- Title: The Restricted Isometry of ReLU Networks: Generalization through Norm
Concentration
- Title(参考訳): reluネットワークの制限アイソメトリ:ノルム濃度による一般化
- Authors: Alex Goe{\ss}mann and Gitta Kutyniok
- Abstract要約: ニューラルリミテッドアイソメトリー特性(NeuRIP)を一様濃度イベントとして紹介する。
すべての浅い$mathrmReLU$ネットワークは、同じ品質でスケッチされます。
十分に小さな経験的リスクを持つ全てのネットワークが一様に一般化されていると結論付ける。
- 参考スコア(独自算出の注目度): 3.2971341821314777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While regression tasks aim at interpolating a relation on the entire input
space, they often have to be solved with a limited amount of training data.
Still, if the hypothesis functions can be sketched well with the data, one can
hope for identifying a generalizing model.
In this work, we introduce with the Neural Restricted Isometry Property
(NeuRIP) a uniform concentration event, in which all shallow $\mathrm{ReLU}$
networks are sketched with the same quality. To derive the sample complexity
for achieving NeuRIP, we bound the covering numbers of the networks in the
Sub-Gaussian metric and apply chaining techniques. In case of the NeuRIP event,
we then provide bounds on the expected risk, which hold for networks in any
sublevel set of the empirical risk. We conclude that all networks with
sufficiently small empirical risk generalize uniformly.
- Abstract(参考訳): 回帰タスクは入力空間全体の関係を補間することを目的としているが、限られた量のトレーニングデータで解決する必要があることが多い。
しかし、もし仮説関数がデータと共にうまくスケッチできるなら、一般化モデルを特定することが期待できる。
本稿では,ニューラル制限等長性(neural restricted isometry property,neurip)という一様濃度イベントを紹介し,すべての浅い$\mathrm{relu}$ネットワークを同じ品質でスケッチする。
NeuRIPを達成するためのサンプルの複雑さを導出するために、サブガウス計量におけるネットワークの被覆数と連鎖法を適用した。
neuripイベントの場合、私たちは、経験的リスクの任意のサブレベルセットのネットワークを保持する、期待されるリスクの境界を提供します。
十分に小さな経験的リスクを持つネットワークはすべて一様に一般化される。
関連論文リスト
- Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - On the optimization and generalization of overparameterized implicit
neural networks [25.237054775800164]
機械学習コミュニティでは、暗黙のニューラルネットワークがますます魅力的になっている。
暗黙の層のみを訓練しても,グローバル収束が保証されることを示す。
本稿では,暗黙的ニューラルネットワークの一般化誤差について検討する。
論文 参考訳(メタデータ) (2022-09-30T16:19:46Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - A global convergence theory for deep ReLU implicit networks via
over-parameterization [26.19122384935622]
暗黙の深層学習は近年注目を集めている。
本稿では,Rectified Linear Unit (ReLU) 活性化暗黙的ニューラルネットワークの勾配流れを解析する。
論文 参考訳(メタデータ) (2021-10-11T23:22:50Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Slope and generalization properties of neural networks [0.0]
十分に訓練されたニューラルネットワーク分類器の勾配分布は、一般に、完全に接続されたネットワークの層幅から独立していることを示す。
傾斜は、関連する体積を通して類似した大きさであり、滑らかに変化する。また、再スケーリングの例でも予測されるように振る舞う。
本稿では、損失関数の一部として利用したり、ネットワークトレーニング中に基準を終了させたり、複雑度の観点からデータセットをランク付けしたりといった、斜面概念の応用の可能性について論じる。
論文 参考訳(メタデータ) (2021-07-03T17:54:27Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。