論文の概要: Stable behaviour of infinitely wide deep neural networks
- arxiv url: http://arxiv.org/abs/2003.00394v1
- Date: Sun, 1 Mar 2020 04:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:47:48.096601
- Title: Stable behaviour of infinitely wide deep neural networks
- Title(参考訳): 無限大深層ニューラルネットワークの安定挙動
- Authors: Stefano Favaro, Sandra Fortini, Stefano Peluchetti
- Abstract要約: 我々は、重みとバイアスが独立して均等に分布する、完全に接続されたフィードフォワードディープニューラルネットワーク(NN)について検討する。
NNの無限の幅制限は、重みに対する適切なスケーリングの下で、有限次元分布が安定分布である過程であることを示す。
- 参考スコア(独自算出の注目度): 8.000374471991247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider fully connected feed-forward deep neural networks (NNs) where
weights and biases are independent and identically distributed as symmetric
centered stable distributions. Then, we show that the infinite wide limit of
the NN, under suitable scaling on the weights, is a stochastic process whose
finite-dimensional distributions are multivariate stable distributions. The
limiting process is referred to as the stable process, and it generalizes the
class of Gaussian processes recently obtained as infinite wide limits of NNs
(Matthews at al., 2018b). Parameters of the stable process can be computed via
an explicit recursion over the layers of the network. Our result contributes to
the theory of fully connected feed-forward deep NNs, and it paves the way to
expand recent lines of research that rely on Gaussian infinite wide limits.
- Abstract(参考訳): 重みとバイアスが独立であり、対称中心安定分布として均等に分布する完全連結フィードフォワード深層ニューラルネットワーク (nns) を考える。
そこで, NNの無限幅限界は, 重みに対する適切なスケーリングの下で, 有限次元分布が多変量安定分布である確率過程であることを示す。
この極限過程は安定過程と呼ばれ、最近得られたガウス過程のクラスをNNの無限大極限として一般化する(Matthews at al., 2018b)。
安定したプロセスのパラメータは、ネットワークの層上の明示的な再帰によって計算できる。
この結果は、完全に連結されたフィードフォワード深部NNの理論に寄与し、ガウスの無限大限界に依存する最近の研究線を拡張する道を開いた。
関連論文リスト
- On the Neural Tangent Kernel of Equilibrium Models [72.29727250679477]
本研究は、Deep equilibrium(DEQ)モデルのニューラル・タンジェント・カーネル(NTK)を研究する。
一方,DECモデルでは,幅と深さが無限大であるにもかかわらず,まだ決定論的NTKを満足していることを示す。
論文 参考訳(メタデータ) (2023-10-21T16:47:18Z) - Quantitative CLTs in Deep Neural Networks [12.845031126178593]
ランダムなガウス重みとバイアスを持つ完全連結ニューラルネットワークの分布について検討する。
我々は、大まかではあるが有限の$n$および任意の固定されたネットワーク深さで有効な正規近似の量的境界を得る。
我々の境界は、それまでの文献で利用できたものよりも、ネットワーク幅に依存しているという点で厳格に強い。
論文 参考訳(メタデータ) (2023-07-12T11:35:37Z) - Infinitely wide limits for deep Stable neural networks: sub-linear,
linear and super-linear activation functions [5.2475574493706025]
安定分布パラメータを持つディープスタブルNNの広帯域特性について検討する。
安定NNのスケーリングと,その無限に広い限界の安定性は,活性化関数の選択に依存する可能性があることを示す。
論文 参考訳(メタデータ) (2023-04-08T13:45:52Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Deep Stable neural networks: large-width asymptotics and convergence
rates [3.0108936184913295]
NNの層上に幅が無限大になるにつれて、適切な再スケールされたディープ・スタブル・NNは安定SPに弱収束することを示す。
非三角形NNの構造のため、これは非標準問題であり、新しい自己完結型帰納的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-02T12:18:00Z) - Large-width functional asymptotics for deep Gaussian neural networks [2.7561479348365734]
重みとバイアスが独立であり、ガウス分布に従って同一に分布する完全連結フィードフォワード深層ニューラルネットワークを考える。
この結果は、無限に広い深層ニューラルネットワークとプロセス間の相互作用に関する最近の理論的研究に寄与する。
論文 参考訳(メタデータ) (2021-02-20T10:14:37Z) - Infinite-channel deep stable convolutional neural networks [2.7561479348365734]
本稿では、ディープフィードフォワード畳み込みNNの一般的な文脈におけるA1除去の問題について考察する。
本研究では, 深層フィードフォワード畳み込みNNの無限チャネル限界が, 安定な有限次元分布をもつプロセスであることを示す。
論文 参考訳(メタデータ) (2021-02-07T08:12:46Z) - Bayesian Deep Ensembles via the Neural Tangent Kernel [49.569912265882124]
我々は、ニューラルタンジェントカーネル(NTK)のレンズを通して、ディープアンサンブルとガウス過程(GP)の関連を探索する。
そこで本研究では,各アンサンブルメンバーに対して,計算可能でランダム化され,訓練不能な関数を追加することで,標準的なディープアンサンブルトレーニングに簡単な修正を加える。
我々はベイズ深部アンサンブルが無限幅極限における標準深部アンサンブルよりも保守的な予測を行うことを証明した。
論文 参考訳(メタデータ) (2020-07-11T22:10:52Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z) - On Random Kernels of Residual Architectures [93.94469470368988]
ResNets と DenseNets のニューラルタンジェントカーネル (NTK) に対して有限幅および深さ補正を導出する。
その結果,ResNetsでは,深さと幅が同時に無限大となるとNTKへの収束が生じる可能性が示唆された。
しかし、DenseNetsでは、NTKの幅が無限大になる傾向があるため、その限界への収束が保証されている。
論文 参考訳(メタデータ) (2020-01-28T16:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。