論文の概要: On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks
- arxiv url: http://arxiv.org/abs/2203.14328v3
- Date: Sat, 18 Mar 2023 20:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 04:55:42.258428
- Title: On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks
- Title(参考訳): ランダム刈り込みニューラルネットワークの神経接核解析について
- Authors: Hongru Yang, Zhangyang Wang
- Abstract要約: ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by both theory and practice, we study how random pruning of the
weights affects a neural network's neural tangent kernel (NTK). In particular,
this work establishes an equivalence of the NTKs between a fully-connected
neural network and its randomly pruned version. The equivalence is established
under two cases. The first main result studies the infinite-width asymptotic.
It is shown that given a pruning probability, for fully-connected neural
networks with the weights randomly pruned at the initialization, as the width
of each layer grows to infinity sequentially, the NTK of the pruned neural
network converges to the limiting NTK of the original network with some extra
scaling. If the network weights are rescaled appropriately after pruning, this
extra scaling can be removed. The second main result considers the finite-width
case. It is shown that to ensure the NTK's closeness to the limit, the
dependence of width on the sparsity parameter is asymptotically linear, as the
NTK's gap to its limit goes down to zero. Moreover, if the pruning probability
is set to zero (i.e., no pruning), the bound on the required width matches the
bound for fully-connected neural networks in previous works up to logarithmic
factors. The proof of this result requires developing a novel analysis of a
network structure which we called \textit{mask-induced pseudo-networks}.
Experiments are provided to evaluate our results.
- Abstract(参考訳): 理論と実践の両面から、重みのランダムプルーニングがニューラルネットワークのニューラル・タンジェント・カーネル(NTK)に与える影響について検討した。
特に、本研究は、完全接続されたニューラルネットワークとランダムに刈り取られたバージョンとの間のntkの等価性を確立する。
等価性は2つのケースで確立される。
最初の主な結果は無限幅漸近性の研究である。
初期化時に重みをランダムに切断した完全連結ニューラルネットワークに対して、プルーニング確率が与えられた場合、各層の幅が無限大に成長するにつれて、プルーニングされたニューラルネットワークのNTKは、ある程度のスケーリングで元のネットワークの制限NTKに収束する。
刈り込み後にネットワーク重みが適切に再スケールされると、この余分なスケーリングを除去できる。
第2の主結果は有限幅の場合を考えることである。
この限界にNTKの近さを確実にするために、空間パラメータの幅依存性は漸近的に線形であることが示され、NTKの限界とのギャップはゼロになる。
さらに、プルーニング確率がゼロ(つまりプルーニングなし)に設定された場合(つまり、プルーニングなし)、必要な幅のバウンドは、前回の完全連結ニューラルネットワークのバウンドと対数因子に一致する。
この結果の証明には、我々が \textit{mask-induced pseudo-networks} と呼ぶネットワーク構造の新しい分析を開発する必要がある。
結果を評価する実験が行われる。
関連論文リスト
- Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Why Quantization Improves Generalization: NTK of Binary Weight Neural
Networks [33.08636537654596]
ニューラルネットワークにおける二分重みを、ラウンドリングの下でのランダム変数とみなし、ニューラルネットワークの異なる層上での分布伝搬について検討する。
本研究では,連続パラメータとスムーズなアクティベーション関数を持つニューラルネットワークである分布伝搬を近似する準ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T06:11:21Z) - A global convergence theory for deep ReLU implicit networks via
over-parameterization [26.19122384935622]
暗黙の深層学習は近年注目を集めている。
本稿では,Rectified Linear Unit (ReLU) 活性化暗黙的ニューラルネットワークの勾配流れを解析する。
論文 参考訳(メタデータ) (2021-10-11T23:22:50Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Random Vector Functional Link Networks for Function Approximation on Manifolds [8.535815777849786]
ランダムな入力-隠蔽層重みとバイアスを持つ単一層ニューラルネットが実際に成功していることを示す。
さらに、このランダム化されたニューラルネットワークアーキテクチャをユークリッド空間の滑らかでコンパクトな部分多様体上の近似関数に適用する。
論文 参考訳(メタデータ) (2020-07-30T23:50:44Z) - A Revision of Neural Tangent Kernel-based Approaches for Neural Networks [34.75076385561115]
ニューラルネットワークカーネルを使用して、ネットワークが任意の有限トレーニングサンプルに完全に適合できることを示す。
単純で解析的なカーネル関数は、完全に訓練されたネットワークと同等のものとして導出された。
より厳密な分析により,スケーリングの問題が解決され,元のNTKに基づく結果の検証が可能となった。
論文 参考訳(メタデータ) (2020-07-02T05:07:55Z) - On Random Kernels of Residual Architectures [93.94469470368988]
ResNets と DenseNets のニューラルタンジェントカーネル (NTK) に対して有限幅および深さ補正を導出する。
その結果,ResNetsでは,深さと幅が同時に無限大となるとNTKへの収束が生じる可能性が示唆された。
しかし、DenseNetsでは、NTKの幅が無限大になる傾向があるため、その限界への収束が保証されている。
論文 参考訳(メタデータ) (2020-01-28T16:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。