論文の概要: Uniform convergence for Gaussian kernel ridge regression
- arxiv url: http://arxiv.org/abs/2508.11274v1
- Date: Fri, 15 Aug 2025 07:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.779067
- Title: Uniform convergence for Gaussian kernel ridge regression
- Title(参考訳): ガウス核リッジ回帰のための一様収束
- Authors: Paul Dommel, Rajmadan Lakshmanan,
- Abstract要約: 本稿では,ガウス核尾根回帰 (KRR) の収束速度を均一と2ドルノームの両方で固定した。
この結果は、非パラメトリック回帰における固定ハイパースを持つガウスKRRの使用に対する新たな理論的正当性を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper establishes the first polynomial convergence rates for Gaussian kernel ridge regression (KRR) with a fixed hyperparameter in both the uniform and the $L^{2}$-norm. The uniform convergence result closes a gap in the theoretical understanding of KRR with the Gaussian kernel, where no such rates were previously known. In addition, we prove a polynomial $L^{2}$-convergence rate in the case, where the Gaussian kernel's width parameter is fixed. This also contributes to the broader understanding of smooth kernels, for which previously only sub-polynomial $L^{2}$-rates were known in similar settings. Together, these results provide new theoretical justification for the use of Gaussian KRR with fixed hyperparameters in nonparametric regression.
- Abstract(参考訳): 本稿では,ガウス核尾根回帰 (KRR) の多項式収束速度を均一と$L^{2}$-ノルムの両方に固定したハイパーパラメータで決定する。
一様収束結果は、KRRとガウス核との理論的理解のギャップを埋める。
さらに,ガウスカーネルの幅パラメータが固定された場合の多項式$L^{2}$-convergenceレートを証明した。
これはスムーズカーネルのより広範な理解にも寄与し、以前は同様の設定で知られていたのはサブポリノミカル$L^{2}$-ratesのみであった。
これらの結果は、非パラメトリック回帰において、固定されたハイパーパラメータを持つガウスKRRを使用するための新しい理論的正当性を提供する。
関連論文リスト
- On the Convergence of Irregular Sampling in Reproducing Kernel Hilbert Spaces [0.0]
本稿では,カーネルと入力データの両方に対する最小主義的仮定の下で,カーネル回帰の近似特性について論じる。
我々はまず、カーネルのRKHS基準でエラー推定を証明した。
これにより、コンパクト領域上でのカーネル回帰の均一収束に関する新たな結果が導かれる。
論文 参考訳(メタデータ) (2025-04-18T10:57:16Z) - Universality of kernel random matrices and kernel regression in the quadratic regime [18.51014786894174]
本研究では、カーネルカーネルの回帰の研究を二次構造にまで拡張する。
我々は、元のカーネルランダム行列と二次カーネルランダム行列の差分に限定した作用素ノルム近似を確立する。
我々は、$n/d2$が非ゼロ定数に収束する二次状態におけるKRRの正確なトレーニングと一般化誤差を特徴づける。
論文 参考訳(メタデータ) (2024-08-02T07:29:49Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Wiener Chaos in Kernel Regression: Towards Untangling Aleatoric and Epistemic Uncertainty [0.0]
我々はこの設定を一般化し、加法的、すなわち非ガウス計測ノイズによるカーネルリッジ回帰を考える。
GP後部分布に符号化された全不確実性から,データサンプルのノイズから生じる不確かさを識別できることを示す。
論文 参考訳(メタデータ) (2023-12-12T16:02:35Z) - Kernel Ridge Regression Inference [7.066496204344619]
カーネルリッジ回帰のための均一な推論と信頼バンドを提供する。
我々は、KRRに対して、一般回帰器に対して、ほぼミニマックス速度で縮小するシャープで均一な信頼セットを構築する。
我々は,学校の課題におけるマッチング効果の新たなテストを構築するために,我々の手順を利用する。
論文 参考訳(メタデータ) (2023-02-13T18:26:36Z) - How Good are Low-Rank Approximations in Gaussian Process Regression? [28.392890577684657]
2つの共通低ランクカーネル近似による近似ガウス過程(GP)回帰の保証を提供する。
理論境界の有効性を評価するため,シミュレーションデータと標準ベンチマークの両方について実験を行った。
論文 参考訳(メタデータ) (2021-12-13T04:04:08Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Robustly Learning Mixtures of $k$ Arbitrary Gaussians [47.40835932474677]
任意の固定された$k$に対して$k$任意のガウスの混合を$mathbbRd$で頑健に推定する問題に対して、一定数の任意の汚職が存在する場合の時間アルゴリズムを与える。
本研究の主なツールは,2乗法に依拠する効率的な分節クラスタリングアルゴリズムと,Frobeniusノルムおよび低ランク項の誤りを許容する新しいテンソル分解アルゴリズムである。
論文 参考訳(メタデータ) (2020-12-03T17:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。