論文の概要: On Feature Learning in Neural Networks with Global Convergence
Guarantees
- arxiv url: http://arxiv.org/abs/2204.10782v1
- Date: Fri, 22 Apr 2022 15:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:23:38.370679
- Title: On Feature Learning in Neural Networks with Global Convergence
Guarantees
- Title(参考訳): グローバル収束保証付きニューラルネットワークにおける特徴学習について
- Authors: Zhengdao Chen, Eric Vanden-Eijnden and Joan Bruna
- Abstract要約: 勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
- 参考スコア(独自算出の注目度): 49.870593940818715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the optimization of wide neural networks (NNs) via gradient flow
(GF) in setups that allow feature learning while admitting non-asymptotic
global convergence guarantees. First, for wide shallow NNs under the mean-field
scaling and with a general class of activation functions, we prove that when
the input dimension is no less than the size of the training set, the training
loss converges to zero at a linear rate under GF. Building upon this analysis,
we study a model of wide multi-layer NNs whose second-to-last layer is trained
via GF, for which we also prove a linear-rate convergence of the training loss
to zero, but regardless of the input dimension. We also show empirically that,
unlike in the Neural Tangent Kernel (NTK) regime, our multi-layer model
exhibits feature learning and can achieve better generalization performance
than its NTK counterpart.
- Abstract(参考訳): 非漸近的グローバルコンバージェンス保証を認めながら特徴学習が可能なセットアップにおいて、勾配流(GF)を介して広範ニューラルネットワーク(NN)の最適化を検討する。
まず,平均場スケーリングと一般的な活性化関数のクラスを持つ広い浅層nnに対して,入力次元がトレーニングセットの大きさ以下であれば,gf 以下の線形レートでトレーニング損失がゼロに収束することを示す。
この解析に基づいて,gfを介して第2層から最終層を訓練する広層多層nnのモデルについて検討し,入力次元にかかわらずトレーニング損失をゼロに線形収束させることを証明した。
また、ニューラル・タンジェント・カーネル(NTK)方式とは異なり、我々の多層モデルは特徴学習を行い、NTK方式よりも優れた一般化性能が得られることを示す。
関連論文リスト
- Efficient kernel surrogates for neural network-based regression [0.8030359871216615]
ニューラルタンジェントカーネル(NTK)の効率的な近似である共役カーネル(CK)の性能について検討する。
CK性能がNTKよりもわずかに劣っていることを示し、特定の場合において、CK性能が優れていることを示す。
NTKの代わりにCKを使用するための理論的基盤を提供するだけでなく,DNNの精度を安価に向上するためのレシピを提案する。
論文 参考訳(メタデータ) (2023-10-28T06:41:47Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Over-parameterised Shallow Neural Networks with Asymmetrical Node
Scaling: Global Convergence Guarantees and Feature Learning [23.47570704524471]
我々は,各隠れノードの出力を正のパラメータでスケールする勾配流による大規模および浅層ニューラルネットワークの最適化を検討する。
大規模なニューラルネットワークでは、高い確率で勾配流がグローバルな最小限に収束し、NTK体制とは異なり、特徴を学習できることを実証する。
論文 参考訳(メタデータ) (2023-02-02T10:40:06Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Statistical Mechanics of Deep Linear Neural Networks: The
Back-Propagating Renormalization Group [4.56877715768796]
個々の単位の入力出力関数が線形である深線型ニューラルネットワーク(DLNN)における学習の統計力学について検討する。
重み空間における平衡ギブス分布を用いて教師あり学習後のネットワーク特性を正確に解く。
数値シミュレーションにより, 非線形性にもかかわらず, 理論の予測は大部分, 深さの小さいreluネットワークによって共有されていることが明らかとなった。
論文 参考訳(メタデータ) (2020-12-07T20:08:31Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。