論文の概要: Deep Neural Tangent Kernel and Laplace Kernel Have the Same RKHS
- arxiv url: http://arxiv.org/abs/2009.10683v5
- Date: Thu, 18 Mar 2021 14:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:07:12.483571
- Title: Deep Neural Tangent Kernel and Laplace Kernel Have the Same RKHS
- Title(参考訳): ディープ・ニューラル・タンジェント・カーネルとラプラス・カーネルは同じrkhを持つ
- Authors: Lin Chen, Sheng Xu
- Abstract要約: より小さいパワー(カーネルのスムーズさを損なう)の指数的パワーカーネルは、より大きなRKHSにつながることを証明した。
また、ディープニューラルネットワークカーネルとLaplaceカーネルの再生カーネルヒルベルト空間(RKHS)が、同じ関数セットを含むことを証明した。
- 参考スコア(独自算出の注目度): 10.578438886506076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove that the reproducing kernel Hilbert spaces (RKHS) of a deep neural
tangent kernel and the Laplace kernel include the same set of functions, when
both kernels are restricted to the sphere $\mathbb{S}^{d-1}$. Additionally, we
prove that the exponential power kernel with a smaller power (making the kernel
less smooth) leads to a larger RKHS, when it is restricted to the sphere
$\mathbb{S}^{d-1}$ and when it is defined on the entire $\mathbb{R}^d$.
- Abstract(参考訳): 両カーネルが球面$\mathbb{S}^{d-1}$に制限されているとき、ディープニューラル接核とラプラス核の再生カーネルヒルベルト空間(RKHS)が同じ関数集合を含むことを証明する。
さらに、より小さいパワー(カーネルを滑らかにしない)を持つ指数的パワーカーネルは、球面$\mathbb{S}^{d-1}$に制限されたとき、そして、それがすべての$\mathbb{R}^d$で定義されるとき、より大きなRKHSにつながることを証明している。
関連論文リスト
- Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines [12.11705128358537]
スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
性能向上につながる要因であることを示す。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
論文 参考訳(メタデータ) (2024-05-28T04:47:12Z) - On the Eigenvalue Decay Rates of a Class of Neural-Network Related
Kernel Functions Defined on General Domains [10.360517127652185]
一般領域上で定義されたカーネル関数の大きなクラスの固有値減衰率(EDR)を決定するための戦略を提供する。
この種類のカーネル関数は含まれているが、異なる深さと様々なアクティベーション関数を持つニューラルネットワークに付随する神経タンジェントカーネルに限らない。
論文 参考訳(メタデータ) (2023-05-04T08:54:40Z) - An Empirical Analysis of the Laplace and Neural Tangent Kernels [0.0]
ニューラル・タンジェント・カーネル(Neural tangent kernel)は、無限幅ニューラルネットワークのパラメータ分布上に定義されたカーネル関数である。
ラプラス核とニューラル接核は同じヒルベルト空間を$mathbbSd-1$の空間で共有していることが示される。
論文 参考訳(メタデータ) (2022-08-07T16:18:02Z) - Spectral bounds of the $\varepsilon$-entropy of kernel classes [6.028247638616059]
我々は、メルサー核の$K$によって誘導される再生カーネル空間における単位球の$varepsilon$-エントロピー上の新しい境界を開発する。
提案手法では,RKHSにおける単位球の楕円形構造と,ユークリッド空間における楕円形の個数をカバーした以前の研究を利用する。
論文 参考訳(メタデータ) (2022-04-09T16:45:22Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Faster Kernel Matrix Algebra via Density Estimation [46.253698241653254]
正半定核行列 $K の基本特性を $n$ 点に対応する n$ で計算するための高速アルゴリズムについて研究する。
論文 参考訳(メタデータ) (2021-02-16T18:25:47Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - On the Similarity between the Laplace and Neural Tangent Kernels [26.371904197642145]
完全に接続されたネットワークに対するNTKは標準のLaplaceカーネルと密接に関連していることを示す。
この結果から,よく知られたLaplaceカーネルの解析から,ニューラルネットワークに関する多くの知見が得られることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T09:48:23Z) - Kernel-Based Reinforcement Learning: A Finite-Time Analysis [53.47210316424326]
モデルに基づく楽観的アルゴリズムであるKernel-UCBVIを導入する。
スパース報酬を伴う連続MDPにおける我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2020-04-12T12:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。