論文の概要: Gradient Kernel Regression
- arxiv url: http://arxiv.org/abs/2104.05874v1
- Date: Tue, 13 Apr 2021 00:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:32:33.425048
- Title: Gradient Kernel Regression
- Title(参考訳): グラディエントカーネル回帰
- Authors: Matt Calder
- Abstract要約: このカーネルは、カーネルレグレッションを実行するために使用される。
驚くべきことに、その回帰の精度は、基盤となるネットワークの精度とは無関係である。
- 参考スコア(独自算出の注目度): 1.2250157368151429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article a surprising result is demonstrated using the neural tangent
kernel. This kernel is defined as the inner product of the vector of the
gradient of an underlying model evaluated at training points. This kernel is
used to perform kernel regression. The surprising thing is that the accuracy of
that regression is independent of the accuracy of the underlying network.
- Abstract(参考訳): 本稿では,ニューラルネットワークカーネルを用いて驚くべき結果を示す。
このカーネルは、トレーニングポイントで評価された基礎モデルの勾配のベクトルの内積として定義される。
このカーネルはカーネルレグレッションを実行するために使用される。
驚くべきことに、その回帰の精度は、基盤となるネットワークの精度とは無関係である。
関連論文リスト
- On Kernel Regression with Data-Dependent Kernels [0.0]
トレーニングデータを見た後にカーネルを更新できるカーネルレグレッションについて検討する。
データ依存型カーネル学習者としてのディープニューラルネットワークの視点への接続について論じる。
論文 参考訳(メタデータ) (2022-09-04T20:46:01Z) - An Empirical Analysis of the Laplace and Neural Tangent Kernels [0.0]
ニューラル・タンジェント・カーネル(Neural tangent kernel)は、無限幅ニューラルネットワークのパラメータ分布上に定義されたカーネル関数である。
ラプラス核とニューラル接核は同じヒルベルト空間を$mathbbSd-1$の空間で共有していることが示される。
論文 参考訳(メタデータ) (2022-08-07T16:18:02Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Quantifying the Benefit of Using Differentiable Learning over Tangent
Kernels [51.18614735359657]
勾配降下は、関連する接核法がランダムな推測よりも非自明な利点を得られる場合に限り、小さな誤差をもたらす。
このような条件がなければ、特に接するカーネルを用いたカーネル法がランダムな推測よりも非自明な優位性を達成できない場合でも、勾配降下は小さな誤差で学習できることが示される。
論文 参考訳(メタデータ) (2021-03-01T18:54:13Z) - On the Similarity between the Laplace and Neural Tangent Kernels [26.371904197642145]
完全に接続されたネットワークに対するNTKは標準のLaplaceカーネルと密接に関連していることを示す。
この結果から,よく知られたLaplaceカーネルの解析から,ニューラルネットワークに関する多くの知見が得られることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T09:48:23Z) - Optimal Rates of Distributed Regression with Imperfect Kernels [0.0]
本研究では,分散カーネルの分散化について,分割法と分割法を用いて検討する。
ノイズフリー環境では,カーネルリッジ回帰がN-1$よりも高速に実現できることを示す。
論文 参考訳(メタデータ) (2020-06-30T13:00:16Z) - A Generalized Neural Tangent Kernel Analysis for Two-layer Neural
Networks [87.23360438947114]
重み劣化を伴う雑音勾配降下は依然として「カーネル様」の挙動を示すことを示す。
これは、トレーニング損失が一定の精度まで線形に収束することを意味する。
また,重み劣化を伴う雑音勾配勾配勾配で学習した2層ニューラルネットワークに対して,新しい一般化誤差を確立する。
論文 参考訳(メタデータ) (2020-02-10T18:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。