論文の概要: Dynamics of Finite Width Kernel and Prediction Fluctuations in Mean
Field Neural Networks
- arxiv url: http://arxiv.org/abs/2304.03408v3
- Date: Tue, 7 Nov 2023 12:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 19:43:54.139302
- Title: Dynamics of Finite Width Kernel and Prediction Fluctuations in Mean
Field Neural Networks
- Title(参考訳): 平均場ニューラルネットワークにおける有限幅カーネルのダイナミクスと予測変動
- Authors: Blake Bordelon, Cengiz Pehlevan
- Abstract要約: 広義だが有限な特徴学習ニューラルネットワークにおける有限幅効果のダイナミクスを解析する。
我々の結果は、特徴学習の強みにおいて非摂動的である。
- 参考スコア(独自算出の注目度): 47.73646927060476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the dynamics of finite width effects in wide but finite feature
learning neural networks. Starting from a dynamical mean field theory
description of infinite width deep neural network kernel and prediction
dynamics, we provide a characterization of the $O(1/\sqrt{\text{width}})$
fluctuations of the DMFT order parameters over random initializations of the
network weights. Our results, while perturbative in width, unlike prior
analyses, are non-perturbative in the strength of feature learning. In the lazy
limit of network training, all kernels are random but static in time and the
prediction variance has a universal form. However, in the rich, feature
learning regime, the fluctuations of the kernels and predictions are
dynamically coupled with a variance that can be computed self-consistently. In
two layer networks, we show how feature learning can dynamically reduce the
variance of the final tangent kernel and final network predictions. We also
show how initialization variance can slow down online learning in wide but
finite networks. In deeper networks, kernel variance can dramatically
accumulate through subsequent layers at large feature learning strengths, but
feature learning continues to improve the signal-to-noise ratio of the feature
kernels. In discrete time, we demonstrate that large learning rate phenomena
such as edge of stability effects can be well captured by infinite width
dynamics and that initialization variance can decrease dynamically. For CNNs
trained on CIFAR-10, we empirically find significant corrections to both the
bias and variance of network dynamics due to finite width.
- Abstract(参考訳): 広義だが有限な特徴学習ニューラルネットワークにおける有限幅効果のダイナミクスを解析する。
無限幅深層ニューラルネットワークカーネルの動的平均場理論記述と予測ダイナミクスから,ネットワーク重みのランダム初期化によるdmftオーダーパラメータの$o(1/\sqrt{\text{width}})$ゆらぎを特徴付ける。
我々の結果は,先行分析とは異なり,幅の摂動的ではあるが,特徴学習の強さにおいて非摂動的である。
ネットワークトレーニングの遅延制限では、すべてのカーネルはランダムだが静的であり、予測分散は普遍的な形式を持つ。
しかし、リッチで特徴学習の体制では、カーネルと予測のゆらぎは、自己整合的に計算できる分散と動的に結合する。
2層ネットワークにおいて,機能学習によって最終接核の分散と最終ネットワーク予測を動的に低減できることを示す。
また,初期化のばらつきが,大規模だが有限のネットワークでオンライン学習を遅くする可能性を示す。
より深いネットワークでは、カーネルの分散はその後の大きな特徴学習強度で劇的に増大するが、機能学習は特徴カーネルの信号対雑音比を改善し続けている。
離散時間において,安定性効果のエッジのような大きな学習速度現象は無限幅ダイナミクスによってよく捉えられ,初期化分散は動的に減少することを示した。
CIFAR-10で訓練されたCNNに対して、有限幅によるネットワークダイナミクスのバイアスと分散の両方に有意な補正を経験的に求める。
関連論文リスト
- Feature Learning and Generalization in Deep Networks with Orthogonal Weights [1.7956122940209063]
独立なガウス分布からの数値的な重みを持つディープニューラルネットワークは臨界に調整することができる。
これらのネットワークは、ネットワークの深さとともに線形に成長する変動を示す。
行列のアンサンブルから得られるタン・アクティベーションと重みを持つ長方形のネットワークが、それに対応する事前アクティベーション・揺らぎを持つことを示す。
論文 参考訳(メタデータ) (2023-10-11T18:00:02Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Feature-Learning Networks Are Consistent Across Widths At Realistic
Scales [72.27228085606147]
様々なアーキテクチャやデータセットにわたる特徴学習ニューラルネットワークのダイナミクスに対する幅の影響について検討する。
トレーニングの初期、オンラインデータでトレーニングされた広範なニューラルネットワークは、損失曲線が同じであるだけでなく、トレーニング全体を通じてポイントワイドなテスト予測に一致している。
しかし、より狭いネットワークのアンサンブルは、単一のワイドネットワークよりも性能が劣っている。
論文 参考訳(メタデータ) (2023-05-28T17:09:32Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - The Influence of Learning Rule on Representation Dynamics in Wide Neural
Networks [18.27510863075184]
我々は、フィードバックアライメント(FA)、ダイレクトフィードバックアライメント(DFA)、エラー変調ヘビアン学習(Hebb)で訓練された無限幅の深い勾配ネットワークを解析する。
これらの学習規則のそれぞれに対して、無限幅での出力関数の進化は、時間変化の有効なニューラルネットワークカーネル(eNTK)によって制御されることを示す。
遅延訓練限界では、このeNTKは静的であり、進化しないが、リッチ平均場状態では、このカーネルの進化は動的平均場理論(DMFT)と自己整合的に決定することができる。
論文 参考訳(メタデータ) (2022-10-05T11:33:40Z) - Training Integrable Parameterizations of Deep Neural Networks in the
Infinite-Width Limit [0.0]
大きな幅のダイナミクスは実世界のディープネットワークに関する実践的な洞察を導いてきた。
2層ニューラルネットワークでは、トレーニングされたモデルの性質が初期ランダムウェイトの大きさによって根本的に変化することが理解されている。
この自明な振る舞いを避けるための様々な手法を提案し、その結果のダイナミクスを詳細に分析する。
論文 参考訳(メタデータ) (2021-10-29T07:53:35Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。