論文の概要: The Implicit Bias of Gradient Descent on Generalized Gated Linear
Networks
- arxiv url: http://arxiv.org/abs/2202.02649v1
- Date: Sat, 5 Feb 2022 22:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 11:02:01.474750
- Title: The Implicit Bias of Gradient Descent on Generalized Gated Linear
Networks
- Title(参考訳): 一般化Gated Linear NetworkにおけるグラディエントDescentのインプリシトバイアス
- Authors: Samuel Lippl, L. F. Abbott, SueYeon Chung
- Abstract要約: 数学的に抽出可能な深部非線形ニューラルネットワーク(GLN)の無限時間学習限界を導出する。
アーキテクチャ上の制約と勾配勾配のバイアスがパフォーマンスにどのように影響するかを示す。
帰納的バイアスを明確にすることで、我々のフレームワークはより効率的で生物学的に妥当で堅牢な学習アルゴリズムの開発を知らせる。
- 参考スコア(独自算出の注目度): 3.3946853660795893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the asymptotic behavior of gradient-descent training of deep
neural networks is essential for revealing inductive biases and improving
network performance. We derive the infinite-time training limit of a
mathematically tractable class of deep nonlinear neural networks, gated linear
networks (GLNs), and generalize these results to gated networks described by
general homogeneous polynomials. We study the implications of our results,
focusing first on two-layer GLNs. We then apply our theoretical predictions to
GLNs trained on MNIST and show how architectural constraints and the implicit
bias of gradient descent affect performance. Finally, we show that our theory
captures a substantial portion of the inductive bias of ReLU networks. By
making the inductive bias explicit, our framework is poised to inform the
development of more efficient, biologically plausible, and robust learning
algorithms.
- Abstract(参考訳): 深層ニューラルネットワークの漸近的学習の漸近的挙動を理解することは,帰納的バイアスの解明とネットワーク性能の向上に不可欠である。
我々は、数学的に扱いやすいディープ非線形ニューラルネットワークのクラスであるgated linear networks(glns)の無限時間トレーニング限界を導出し、それらの結果を一般の等質多項式によって記述されたゲートネットワークに一般化する。
結果の意義について検討し,まず2層glnに着目した。
次に、MNISTで訓練されたGLNに理論予測を適用し、アーキテクチャ制約と勾配降下の暗黙バイアスがパフォーマンスにどのように影響するかを示す。
最後に,本理論がreluネットワークの帰納的バイアスのかなりの部分を捉えていることを示す。
帰納的バイアスを明確にすることで、我々のフレームワークはより効率的で生物学的に妥当で堅牢な学習アルゴリズムの開発を知らせる。
関連論文リスト
- Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize [5.642322814965062]
分散シフトの下で一般化される学習表現は、堅牢な機械学習モデルを構築する上で重要である。
ニューラルネットワークを教師ネットワークから得られる表現に明示的に適合させることさえ、学生ネットワークの一般化には不十分であることを示す。
論文 参考訳(メタデータ) (2024-06-05T15:04:27Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Globally Gated Deep Linear Networks [3.04585143845864]
我々はGGDLN(Globally Gated Deep Linear Networks)を導入する。
有限幅熱力学極限におけるこれらのネットワークの一般化特性の正確な方程式を導出する。
我々の研究は、有限幅の非線形ネットワークの族における学習に関する最初の正確な理論解である。
論文 参考訳(メタデータ) (2022-10-31T16:21:56Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural
Networks [13.518582483147325]
本稿では,トランスダクティブ推論の文脈におけるニューラルネットワークの性能を厳密に分析する。
本稿では, ブロックモデルに対するグラフ畳み込みネットワークの一般化特性について, トランスダクティブなRademacher複雑性が説明できることを示す。
論文 参考訳(メタデータ) (2021-12-07T20:06:23Z) - The Principles of Deep Learning Theory [19.33681537640272]
この本は、実践的妥当性の深いニューラルネットワークを理解するための効果的な理論アプローチを開発する。
これらのネットワークがトレーニングから非自明な表現を効果的に学習する方法について説明する。
トレーニングネットワークのアンサンブルの有効モデル複雑性を,奥行き比が支配していることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:00:00Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Statistical Mechanics of Deep Linear Neural Networks: The
Back-Propagating Renormalization Group [4.56877715768796]
個々の単位の入力出力関数が線形である深線型ニューラルネットワーク(DLNN)における学習の統計力学について検討する。
重み空間における平衡ギブス分布を用いて教師あり学習後のネットワーク特性を正確に解く。
数値シミュレーションにより, 非線形性にもかかわらず, 理論の予測は大部分, 深さの小さいreluネットワークによって共有されていることが明らかとなった。
論文 参考訳(メタデータ) (2020-12-07T20:08:31Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。