論文の概要: Sharper analysis of sparsely activated wide neural networks with
trainable biases
- arxiv url: http://arxiv.org/abs/2301.00327v1
- Date: Sun, 1 Jan 2023 02:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:28:12.369440
- Title: Sharper analysis of sparsely activated wide neural networks with
trainable biases
- Title(参考訳): 学習可能なバイアスを有する疎活性化広帯域ニューラルネットワークのシャープ解析
- Authors: Hongru Yang, Ziyu Jiang, Ruizhe Zhang, Zhangyang Wang, Yingbin Liang
- Abstract要約: 本研究は,ニューラル・タンジェント・カーネル(NTK)の勾配勾配による一層超過パラメータ化ReLUネットワークのトレーニング研究である。
驚くべきことに、スパシフィケーション後のネットワークは、元のネットワークと同じくらい高速に収束できることが示されている。
一般化境界は制限NTKの最小固有値に依存するため、この研究は制限NTKの最小固有値をさらに研究する。
- 参考スコア(独自算出の注目度): 103.85569570164404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies training one-hidden-layer overparameterized ReLU networks
via gradient descent in the neural tangent kernel (NTK) regime, where,
differently from the previous works, the networks' biases are trainable and are
initialized to some constant rather than zero. The first set of results of this
work characterize the convergence of the network's gradient descent dynamics.
Surprisingly, it is shown that the network after sparsification can achieve as
fast convergence as the original network. The contribution over previous work
is that not only the bias is allowed to be updated by gradient descent under
our setting but also a finer analysis is given such that the required width to
ensure the network's closeness to its NTK is improved. Secondly, the networks'
generalization bound after training is provided. A width-sparsity dependence is
presented which yields sparsity-dependent localized Rademacher complexity and a
generalization bound matching previous analysis (up to logarithmic factors). As
a by-product, if the bias initialization is chosen to be zero, the width
requirement improves the previous bound for the shallow networks'
generalization. Lastly, since the generalization bound has dependence on the
smallest eigenvalue of the limiting NTK and the bounds from previous works
yield vacuous generalization, this work further studies the least eigenvalue of
the limiting NTK. Surprisingly, while it is not shown that trainable biases are
necessary, trainable bias helps to identify a nice data-dependent region where
a much finer analysis of the NTK's smallest eigenvalue can be conducted, which
leads to a much sharper lower bound than the previously known worst-case bound
and, consequently, a non-vacuous generalization bound.
- Abstract(参考訳): 本研究は,ニューラルタンジェントカーネル(NTK)の勾配勾配による一層超過パラメータ化ReLUネットワークのトレーニング研究であり,ネットワークのバイアスは以前の研究と異なり,ゼロではなく定数に初期化される。
この研究の最初の成果は、ネットワークの勾配降下ダイナミクスの収束を特徴付けるものである。
驚くべきことに、スパーシフィケーション後のネットワークは、元のネットワークと同じくらい高速に収束できることが示されている。
先行研究に対する貢献は,我々の設定下での勾配降下によってバイアスが更新されるだけでなく,ネットワークのntkとの密接性を確保するために必要な幅が向上するように,より詳細な解析が行われることである。
第2に、トレーニング後のネットワークの一般化が提供される。
スパルシリティ依存局所ラデマッハ複雑性と(対数因子まで)先行分析に合致する一般化を生じさせる幅スパーシティ依存性が提示される。
副産物として、バイアス初期化がゼロであると選択された場合、幅要求は浅層ネットワークの一般化に対する以前の境界を改善する。
最後に、一般化境界は極限 NTK の最小固有値と以前の研究の限界値に依存するため、この研究は制限 NTK の最小固有値をさらに研究する。
驚くべきことに、トレーニング可能なバイアスが必要とされることは示されていないが、トレーニング可能なバイアスは、NTKの最小固有値のより詳細な分析を行うことができる優れたデータ依存領域を特定するのに役立つ。
関連論文リスト
- Infinite Width Limits of Self Supervised Neural Networks [6.178817969919849]
NTKと自己教師型学習のギャップを埋め、Barlow Twinsの損失下で訓練された2層ニューラルネットワークに焦点を当てる。
ネットワークの幅が無限大に近づくと、バーロウ・ツインズのNTKは確かに一定となる。
論文 参考訳(メタデータ) (2024-11-17T21:13:57Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Limitations of the NTK for Understanding Generalization in Deep Learning [13.44676002603497]
我々はNTKをスケーリング法則のレンズを通して研究し、ニューラルネットワークの一般化の重要な側面を説明するには不十分であることを示した。
実験的なNTKを一定数のサンプルで事前トレーニングしても、カーネルのスケーリングはニューラルネットワークのスケーリングに追いつかなくなる。
論文 参考訳(メタデータ) (2022-06-20T21:23:28Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - The Surprising Simplicity of the Early-Time Learning Dynamics of Neural
Networks [43.860358308049044]
研究において、これらの共通認識は、学習の初期段階において完全に誤りであることを示す。
この驚くべき単純さは、畳み込みアーキテクチャを持つより多くのレイヤを持つネットワークで持続することができる、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。