論文の概要: Tight Bounds on the Smallest Eigenvalue of the Neural Tangent Kernel for
Deep ReLU Networks
- arxiv url: http://arxiv.org/abs/2012.11654v2
- Date: Wed, 23 Dec 2020 20:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:44:35.898371
- Title: Tight Bounds on the Smallest Eigenvalue of the Neural Tangent Kernel for
Deep ReLU Networks
- Title(参考訳): 深部ReLUネットワークのためのニューラルタンジェントカーネルの最小固有値のタイト境界
- Authors: Quynh Nguyen, Marco Mondelli, Guido Montufar
- Abstract要約: 深部ReLUネットワークに対するNTK行列の最小固有値に厳密な境界を与える。
有限幅設定では、我々が考えるネットワークアーキテクチャは非常に一般的である。
- 参考スコア(独自算出の注目度): 21.13299067136635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent line of work has analyzed the theoretical properties of deep neural
networks via the Neural Tangent Kernel (NTK). In particular, the smallest
eigenvalue of the NTK has been related to memorization capacity, convergence of
gradient descent algorithms and generalization of deep nets. However, existing
results either provide bounds in the two-layer setting or assume that the
spectrum of the NTK is bounded away from 0 for multi-layer networks. In this
paper, we provide tight bounds on the smallest eigenvalue of NTK matrices for
deep ReLU networks, both in the limiting case of infinite widths and for finite
widths. In the finite-width setting, the network architectures we consider are
quite general: we require the existence of a wide layer with roughly order of
$N$ neurons, $N$ being the number of data samples; and the scaling of the
remaining widths is arbitrary (up to logarithmic factors). To obtain our
results, we analyze various quantities of independent interest: we give lower
bounds on the smallest singular value of feature matrices, and upper bounds on
the Lipschitz constant of input-output feature maps.
- Abstract(参考訳): 最近の研究は、ニューラルネットワークの神経接核(neural tangent kernel, ntk)による理論的性質を分析した。
特に、NTKの最小固有値は、記憶能力、勾配降下アルゴリズムの収束、深層ネットの一般化に関係している。
しかし、既存の結果は2層設定のバウンダリを提供するか、NTKのスペクトルが多層ネットワークの0から離れていると仮定する。
本稿では,深部ReLUネットワークにおけるNTK行列の最小固有値に対して,無限幅および有限幅の制限の場合の厳密な境界を与える。
有限幅設定では、我々が考えるネットワークアーキテクチャは、非常に一般的なものである:我々は、およそn$ニューロンのオーダーを持つ広い層の存在、データサンプルの数がn$であること、そして残りの幅のスケーリングは任意である(対数因子によって)。
結果を得るためには,特徴行列の最小特異値に対する下限と,入出力特徴写像のリプシッツ定数に対する上限を与える。
関連論文リスト
- Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Memorization and Optimization in Deep Neural Networks with Minimum
Over-parameterization [14.186776881154127]
Neural Tangent Kernel(NTK)は、ディープニューラルネットワークにおける記憶、最適化、一般化の保証を提供する強力なツールとして登場した。
NTKは、挑戦的なサブ線形設定においてよく条件付けされていることを示す。
我々の重要な技術的貢献は、ディープネットワークにおける最小のNTK固有値の低い境界である。
論文 参考訳(メタデータ) (2022-05-20T14:50:24Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Towards an Understanding of Residual Networks Using Neural Tangent
Hierarchy (NTH) [2.50686294157537]
グラディエント降下は、目的関数の無限の性質に拘わらず、ディープトレーニングネットワークの時間損失をゼロにする。
本稿では,Deep Residual Network (ResNet) を用いた有限幅ResNetに対するNTKのニューラルダイナミクスの訓練を行った。
我々の分析は、特定の神経結合構造であるResNetがその勝利の主因であることを強く示唆している。
論文 参考訳(メタデータ) (2020-07-07T18:08:16Z) - On Random Kernels of Residual Architectures [93.94469470368988]
ResNets と DenseNets のニューラルタンジェントカーネル (NTK) に対して有限幅および深さ補正を導出する。
その結果,ResNetsでは,深さと幅が同時に無限大となるとNTKへの収束が生じる可能性が示唆された。
しかし、DenseNetsでは、NTKの幅が無限大になる傾向があるため、その限界への収束が保証されている。
論文 参考訳(メタデータ) (2020-01-28T16:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。