論文の概要: Self-Consistent Dynamical Field Theory of Kernel Evolution in Wide
Neural Networks
- arxiv url: http://arxiv.org/abs/2205.09653v1
- Date: Thu, 19 May 2022 16:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 18:21:40.750882
- Title: Self-Consistent Dynamical Field Theory of Kernel Evolution in Wide
Neural Networks
- Title(参考訳): ニューラルネットワークにおけるカーネル進化の自己一貫性動的場理論
- Authors: Blake Bordelon, Cengiz Pehlevan
- Abstract要約: 勾配流を学習した無限幅ニューラルネットワークにおける特徴学習を,自己整合力学場理論を用いて解析する。
本研究では,各層に隠れた単位活性化と勾配を示す内積カーネルである決定論的動的順序パラメータの集合を,時間点のペアで構築する。
- 参考スコア(独自算出の注目度): 18.27510863075184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze feature learning in infinite width neural networks trained with
gradient flow through a self-consistent dynamical field theory. We construct a
collection of deterministic dynamical order parameters which are inner-product
kernels for hidden unit activations and gradients in each layer at pairs of
time points, providing a reduced description of network activity through
training. These kernel order parameters collectively define the hidden layer
activation distribution, the evolution of the neural tangent kernel, and
consequently output predictions. For deep linear networks, these kernels
satisfy a set of algebraic matrix equations. For nonlinear networks, we provide
an alternating sampling procedure to self-consistently solve for the kernel
order parameters. We provide comparisons of the self-consistent solution to
various approximation schemes including the static NTK approximation, gradient
independence assumption, and leading order perturbation theory, showing that
each of these approximations can break down in regimes where general
self-consistent solutions still provide an accurate description. Lastly, we
provide experiments in more realistic settings which demonstrate that the loss
and kernel dynamics of CNNs at fixed feature learning strength is preserved
across different widths on a CIFAR classification task.
- Abstract(参考訳): 勾配流を訓練した無限幅ニューラルネットワークの特徴学習を, 自己整合力学場理論を用いて解析する。
本研究では,各層に隠れた単位アクティベーションと勾配の内積カーネルである決定論的動的順序パラメータの集合を,時間点のペアで構築し,ネットワーク活動のトレーニングによる記述を削減した。
これらのカーネル順序パラメータは、隠れた層活性化分布、神経接核の進化を集合的に定義し、その結果、予測を出力する。
深い線形ネットワークの場合、これらの核は代数行列方程式の集合を満たす。
非線形ネットワークに対しては,カーネル順序パラメータを自己整合的に解くための交互サンプリング手順を提案する。
本稿では, 静的NTK近似, 勾配独立仮定, 先行順序摂動理論などの様々な近似スキームに対する自己整合性解の比較を行い, 一般自己整合性解が依然として正確な記述を提供する体制において各近似が分解可能であることを示す。
最後に,固定特徴学習強度におけるcnnの損失とカーネルダイナミクスがcifar分類タスクにおいて異なる幅にわたって保持されることを示す,より現実的な環境での実験を行う。
関連論文リスト
- Emergence of Globally Attracting Fixed Points in Deep Neural Networks With Nonlinear Activations [24.052411316664017]
本稿では、2つの異なる入力に対して隠された表現の類似性を計測するカーネルシーケンスの進化に関する理論的枠組みを提案する。
非線形アクティベーションに対しては、カーネルシーケンスは、アクティベーションとネットワークアーキテクチャに依存する同様の表現に対応可能な、一意の固定点にグローバルに収束する。
この研究は、ディープニューラルネットワークの暗黙のバイアスと、アーキテクチャ上の選択が層間の表現の進化にどのように影響するかについて、新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-10-26T07:10:47Z) - A theory of data variability in Neural Network Bayesian inference [0.70224924046445]
無限広ネットワークの一般化特性をカバーする場理論形式論を提供する。
入力の統計的性質から一般化特性を導出する。
データ可変性は、(varphi3+varphi4$)-理論を思い起こさせる非ガウス的作用をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-31T14:11:32Z) - Controlling the Inductive Bias of Wide Neural Networks by Modifying the Kernel's Spectrum [18.10812063219831]
所望の固有値を持つカーネルに改良スペクトルカーネル(MSK)を導入する。
本研究では,勾配勾配の軌道を変化させる事前条件付き勾配降下法を提案する。
私たちの手法は計算効率が良く、実装も簡単です。
論文 参考訳(メタデータ) (2023-07-26T22:39:47Z) - Dynamics of Finite Width Kernel and Prediction Fluctuations in Mean
Field Neural Networks [47.73646927060476]
広義だが有限な特徴学習ニューラルネットワークにおける有限幅効果のダイナミクスを解析する。
我々の結果は、特徴学習の強みにおいて非摂動的である。
論文 参考訳(メタデータ) (2023-04-06T23:11:49Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Avoiding Kernel Fixed Points: Computing with ELU and GELU Infinite
Networks [12.692279981822011]
指数線型単位(ELU)とガウス誤差線形単位(GELU)を持つ多層パーセプトロンの共分散関数を導出する。
我々は、幅広い活性化関数に対応する繰り返しカーネルの固定点ダイナミクスを解析する。
これまで研究されてきたニューラルネットワークカーネルとは異なり、これらの新しいカーネルは非自明な固定点ダイナミクスを示す。
論文 参考訳(メタデータ) (2020-02-20T01:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。