論文の概要: On Kernel Regression with Data-Dependent Kernels
- arxiv url: http://arxiv.org/abs/2209.01691v1
- Date: Sun, 4 Sep 2022 20:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:58:36.444413
- Title: On Kernel Regression with Data-Dependent Kernels
- Title(参考訳): データ依存型カーネルによるカーネル回帰について
- Authors: James B. Simon
- Abstract要約: トレーニングデータを見た後にカーネルを更新できるカーネルレグレッションについて検討する。
データ依存型カーネル学習者としてのディープニューラルネットワークの視点への接続について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary hyperparameter in kernel regression (KR) is the choice of kernel.
In most theoretical studies of KR, one assumes the kernel is fixed before
seeing the training data. Under this assumption, it is known that the optimal
kernel is equal to the prior covariance of the target function. In this note,
we consider KR in which the kernel may be updated after seeing the training
data. We point out that an analogous choice of kernel using the posterior of
the target function is optimal in this setting. Connections to the view of deep
neural networks as data-dependent kernel learners are discussed.
- Abstract(参考訳): カーネル回帰(KR)における主要なハイパーパラメータは、カーネルの選択である。
KRのほとんどの理論的研究において、カーネルはトレーニングデータを見る前に固定されていると仮定する。
この仮定の下では、最適核は対象関数の先行共分散と等しいことが知られている。
本稿では、トレーニングデータを見た後にカーネルを更新できるKRについて考察する。
この設定では、ターゲット関数の後部を用いたカーネルの類似的な選択が最適であることを示す。
データ依存型カーネル学習者としてのディープニューラルネットワークの視点への接続について論じる。
関連論文リスト
- Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines [12.11705128358537]
スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
性能向上につながる要因であることを示す。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
論文 参考訳(メタデータ) (2024-05-28T04:47:12Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Properties of the After Kernel [11.4219428942199]
ニューラル・タンジェント・カーネル(英: Neural Tangent Kernel、NTK)は、ニューラルネットワークを用いて定義されたカーネルの広いネットワーク限界である。
我々は、標準的なアーキテクチャを持つニューラルネットワークに対して、トレーニング後を除いて同じ埋め込みを用いて定義される「アフターカーネル」について研究する。
論文 参考訳(メタデータ) (2021-05-21T21:50:18Z) - Gradient Kernel Regression [1.2250157368151429]
このカーネルは、カーネルレグレッションを実行するために使用される。
驚くべきことに、その回帰の精度は、基盤となるネットワークの精度とは無関係である。
論文 参考訳(メタデータ) (2021-04-13T00:32:34Z) - Flow-based Kernel Prior with Application to Blind Super-Resolution [143.21527713002354]
カーネル推定は一般にブラインド画像超解像(SR)の鍵となる問題の一つである
本稿では,カーネルモデリングのための正規化フローベースカーネルプリレント(fkp)を提案する。
合成および実世界の画像の実験により、提案したFKPがカーネル推定精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-03-29T22:37:06Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - On the Similarity between the Laplace and Neural Tangent Kernels [26.371904197642145]
完全に接続されたネットワークに対するNTKは標準のLaplaceカーネルと密接に関連していることを示す。
この結果から,よく知られたLaplaceカーネルの解析から,ニューラルネットワークに関する多くの知見が得られることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T09:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。