論文の概要: Avoiding Kernel Fixed Points: Computing with ELU and GELU Infinite
Networks
- arxiv url: http://arxiv.org/abs/2002.08517v3
- Date: Mon, 1 Mar 2021 00:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 06:43:07.368878
- Title: Avoiding Kernel Fixed Points: Computing with ELU and GELU Infinite
Networks
- Title(参考訳): カーネル固定点回避: ELU と GELU の無限ネットワークによる計算
- Authors: Russell Tsuchida, Tim Pearce, Chris van der Heide, Fred Roosta, Marcus
Gallagher
- Abstract要約: 指数線型単位(ELU)とガウス誤差線形単位(GELU)を持つ多層パーセプトロンの共分散関数を導出する。
我々は、幅広い活性化関数に対応する繰り返しカーネルの固定点ダイナミクスを解析する。
これまで研究されてきたニューラルネットワークカーネルとは異なり、これらの新しいカーネルは非自明な固定点ダイナミクスを示す。
- 参考スコア(独自算出の注目度): 12.692279981822011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analysing and computing with Gaussian processes arising from infinitely wide
neural networks has recently seen a resurgence in popularity. Despite this,
many explicit covariance functions of networks with activation functions used
in modern networks remain unknown. Furthermore, while the kernels of deep
networks can be computed iteratively, theoretical understanding of deep kernels
is lacking, particularly with respect to fixed-point dynamics. Firstly, we
derive the covariance functions of multi-layer perceptrons (MLPs) with
exponential linear units (ELU) and Gaussian error linear units (GELU) and
evaluate the performance of the limiting Gaussian processes on some benchmarks.
Secondly, and more generally, we analyse the fixed-point dynamics of iterated
kernels corresponding to a broad range of activation functions. We find that
unlike some previously studied neural network kernels, these new kernels
exhibit non-trivial fixed-point dynamics which are mirrored in finite-width
neural networks. The fixed point behaviour present in some networks explains a
mechanism for implicit regularisation in overparameterised deep models. Our
results relate to both the static iid parameter conjugate kernel and the
dynamic neural tangent kernel constructions. Software at
github.com/RussellTsuchida/ELU_GELU_kernels.
- Abstract(参考訳): 無限に広いニューラルネットワークから生じるガウス過程の分析と計算は、最近人気が回復した。
それにもかかわらず、現代のネットワークで使用される活性化関数を持つネットワークの多くの明示的な共分散関数は未だ不明である。
さらに、ディープ・ネットワークのカーネルは反復的に計算できるが、ディープ・カーネルの理論的理解は特に固定点力学に関して欠如している。
まず,指数線形単位 (ELU) とガウス誤差線形単位 (GELU) との多層パーセプトロン (MLP) の共分散関数を導出し,いくつかのベンチマークでガウス過程の性能を評価する。
第二に、より一般的には、幅広い活性化関数に対応する繰り返しカーネルの固定点ダイナミクスを分析する。
これまでに研究されたニューラルネットワークカーネルとは異なり、これらの新しいカーネルは有限幅ニューラルネットワークにミラーされる非自明な不動点ダイナミクスを示す。
いくつかのネットワークに存在する不動点挙動は、過パラメータ深層モデルにおける暗黙の正則化のメカニズムを説明する。
本研究は, 静的Iidパラメータ共役カーネルと動的ニューラルタンジェントカーネル構築に関するものである。
github.com/RussellTsuchida/ELU_GELU_kernelsのソフトウェア。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Scalable Neural Network Kernels [22.299704296356836]
我々は、通常のフィードフォワード層(FFL)を近似できるスケーラブルニューラルネットワークカーネル(SNNK)を導入する。
また、深層ニューラルネットワークアーキテクチャのコンパクト化にSNNKを適用するニューラルネットワークバンドルプロセスについても紹介する。
我々のメカニズムは、競争精度を維持しながら、トレーニング可能なパラメータの最大5倍の削減を可能にする。
論文 参考訳(メタデータ) (2023-10-20T02:12:56Z) - Faithful and Efficient Explanations for Neural Networks via Neural
Tangent Kernel Surrogate Models [7.608408123113268]
我々は、データ属性の近似的経験的ニューラルネットワークカーネル(eNTK)を解析する。
そこで本研究では,時間とメモリの複雑さを調整可能な,近似eNTKの2つの新しいランダムプロジェクションモデルを提案する。
ニューラルネットワークカーネルをカーネル関数として用いたカーネルマシンは,効率的なサロゲートモデルである。
論文 参考訳(メタデータ) (2023-05-23T23:51:53Z) - Approximation by non-symmetric networks for cross-domain learning [0.0]
非対称カーネルを用いたカーネルネットワークの近似能力について検討する。
我々は、$r$が必ずしも整数ではないとき、ReLU$r$ネットワークにより、ソボレフクラスの関数の均一近似の精度の推定値を得る。
論文 参考訳(メタデータ) (2023-05-06T01:33:26Z) - On the Eigenvalue Decay Rates of a Class of Neural-Network Related
Kernel Functions Defined on General Domains [10.360517127652185]
一般領域上で定義されたカーネル関数の大きなクラスの固有値減衰率(EDR)を決定するための戦略を提供する。
この種類のカーネル関数は含まれているが、異なる深さと様々なアクティベーション関数を持つニューラルネットワークに付随する神経タンジェントカーネルに限らない。
論文 参考訳(メタデータ) (2023-05-04T08:54:40Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Classifying high-dimensional Gaussian mixtures: Where kernel methods
fail and neural networks succeed [27.38015169185521]
2層ニューラルネットワーク (2lnn) の隠れたニューロンがカーネル学習の性能を上回ることができることを理論的に示している。
ニューラルネットワークのオーバーパラメータが収束を早めるが、最終的な性能は改善しないことを示す。
論文 参考訳(メタデータ) (2021-02-23T15:10:15Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。