論文の概要: Neural Network Gaussian Processes by Increasing Depth
- arxiv url: http://arxiv.org/abs/2108.12862v1
- Date: Sun, 29 Aug 2021 15:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 02:23:26.006048
- Title: Neural Network Gaussian Processes by Increasing Depth
- Title(参考訳): 深さ増加によるニューラルネットワークガウス過程
- Authors: Shao-Qun Zhang and Feng-Lei Fan
- Abstract要約: ニューラルネットワークの深さの増大はガウス過程を引き起こす可能性があることを示す。
また、理論的には、その一様強み特性と、関連するカーネルの最小固有値も特徴付ける。
これらの特徴付けは、提案された深さ誘起ガウス過程の理解を深めるだけでなく、将来の応用への道を開くことができる。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed an increasing interest in the correspondence
between infinitely wide networks and Gaussian processes. Despite the
effectiveness and elegance of the current neural network Gaussian process
theory, to the best of our knowledge, all the neural network Gaussian processes
are essentially induced by increasing width. However, in the era of deep
learning, what concerns us more regarding a neural network is its depth as well
as how depth impacts the behaviors of a network. Inspired by a width-depth
symmetry consideration, we use a shortcut network to show that increasing the
depth of a neural network can also give rise to a Gaussian process, which is a
valuable addition to the existing theory and contributes to revealing the true
picture of deep learning. Beyond the proposed Gaussian process by depth, we
theoretically characterize its uniform tightness property and the smallest
eigenvalue of its associated kernel. These characterizations can not only
enhance our understanding of the proposed depth-induced Gaussian processes, but
also pave the way for future applications. Lastly, we examine the performance
of the proposed Gaussian process by regression experiments on two real-world
data sets.
- Abstract(参考訳): 近年、無限に広いネットワークとガウス過程の対応への関心が高まっている。
現在のニューラルネットワークガウス過程理論の有効性とエレガントさにもかかわらず、我々の知る限りでは、全てのニューラルネットワークガウス過程は基本的に幅の増大によって誘導される。
しかし、ディープラーニングの時代において、ニューラルネットワークに関してより関心を持つのは、その深さと、ネットワークの振る舞いに深さがどのように影響するかである。
幅-深さ対称性を考慮したショートカットネットワークを用いて、ニューラルネットワークの深さを増大させることで、ガウス過程がもたらされることを示し、これは既存の理論に価値ある追加であり、ディープラーニングの真の姿を明らかにすることに寄与する。
提案したガウス過程を超えて、理論的にはその一様密度特性と関連する核の最小固有値を特徴づける。
これらの特徴は、提案された深さ誘起ガウス過程の理解を深めるだけでなく、将来の応用への道を開くことができる。
最後に, 2つの実世界のデータセット上での回帰実験により, ガウス過程の性能を検証した。
関連論文リスト
- Beyond IID weights: sparse and low-rank deep Neural Networks are also Gaussian Processes [3.686808512438363]
我々は Matthews らの証明を、より大きな初期重み分布のクラスに拡張する。
また,PSEUDO-IID分布を用いた完全連結・畳み込みネットワークは,その分散にほぼ等価であることを示す。
この結果を用いて、ニューラルネットワークの幅広いクラスに対してEdge-of-Chaosを識別し、トレーニングを強化するために臨界度で調整することができる。
論文 参考訳(メタデータ) (2023-10-25T12:38:36Z) - Wide Neural Networks as Gaussian Processes: Lessons from Deep
Equilibrium Models [16.07760622196666]
本研究では,層間における共有重み行列を持つ無限深度ニューラルネットワークであるDeep equilibrium Model (DEQ)について検討する。
解析により,DEC層の幅が無限大に近づくにつれ,ガウス過程に収束することが明らかとなった。
注目すべきは、この収束は深さと幅の限界が交換されても成り立つことである。
論文 参考訳(メタデータ) (2023-10-16T19:00:43Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Sparsity-depth Tradeoff in Infinitely Wide Deep Neural Networks [22.083873334272027]
我々は,スペーサーネットワークが,様々なデータセットの浅い深度で非スパースネットワークより優れていることを観察した。
カーネルリッジ回帰の一般化誤差に関する既存の理論を拡張した。
論文 参考訳(メタデータ) (2023-05-17T20:09:35Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Deep Maxout Network Gaussian Process [1.9292807030801753]
我々は、深い無限幅の最大出力ネットワークとガウス過程(GP)の等価性を導出する。
私たちは、ディープマックスアウトネットワークカーネルとディープニューラルネットワークカーネルの接続を構築します。
論文 参考訳(メタデータ) (2022-08-08T23:52:26Z) - The Principles of Deep Learning Theory [19.33681537640272]
この本は、実践的妥当性の深いニューラルネットワークを理解するための効果的な理論アプローチを開発する。
これらのネットワークがトレーニングから非自明な表現を効果的に学習する方法について説明する。
トレーニングネットワークのアンサンブルの有効モデル複雑性を,奥行き比が支配していることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:00:00Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。