論文の概要: Spectral bounds of the $\varepsilon$-entropy of kernel classes
- arxiv url: http://arxiv.org/abs/2204.04512v1
- Date: Sat, 9 Apr 2022 16:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 15:59:54.846177
- Title: Spectral bounds of the $\varepsilon$-entropy of kernel classes
- Title(参考訳): カーネルクラスの$\varepsilon$-エントロピーのスペクトル境界
- Authors: Rustem Takhanov
- Abstract要約: 我々は、メルサー核の$K$によって誘導される再生カーネル空間における単位球の$varepsilon$-エントロピー上の新しい境界を開発する。
提案手法では,RKHSにおける単位球の楕円形構造と,ユークリッド空間における楕円形の個数をカバーした以前の研究を利用する。
- 参考スコア(独自算出の注目度): 6.028247638616059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop new upper and lower bounds on the $\varepsilon$-entropy of a unit
ball in a reproducing kernel Hilbert space induced by some Mercer kernel $K$.
Our bounds are based on the behaviour of eigenvalues of a corresponding
integral operator. In our approach we exploit an ellipsoidal structure of a
unit ball in RKHS and a previous work on covering numbers of an ellipsoid in
the euclidean space obtained by Dumer, Pinsker and Prelov.
We present a number of applications of our main bound, such as its tightness
for a practically important case of the Gaussian kernel. Further, we develop a
series of lower bounds on the $\varepsilon$-entropy that can be established
from a connection between covering numbers of a ball in RKHS and a quantization
of a Gaussian Random Field that corresponds to the kernel $K$ by the
Kosambi-Karhunen-Lo\`eve transform.
- Abstract(参考訳): 我々は、マーサーカーネル $k$ によって誘導される再生核ヒルベルト空間における単位球の $\varepsilon$-エントロピー上の新しい上限と下限を開発する。
我々の境界は対応する積分作用素の固有値の振る舞いに基づいている。
提案手法では, RKHS における単位球の楕円形構造と, Dumer, Pinsker, Prelov により得られたユークリッド空間における楕円形の数被覆に関する以前の研究を利用する。
我々は、ガウス核の実際上重要な場合に対する厳密性など、我々の主境界の多くの応用を示す。
さらに、RKHS内の球の被覆数と、コサンビー・カルフネン・ローブ変換によるカーネル$K$に対応するガウスランダム場の量子化との接続から確立できる$\varepsilon$-エントロピー上の下界のシリーズを開発する。
関連論文リスト
- Gaussian kernel expansion with basis functions uniformly bounded in $\mathcal{L}_{\infty}$ [0.6138671548064355]
カーネル拡張は、機械学習にかなりの関心を持つトピックである。
この論文における最近の研究は、$mathcalL_infty$で一様有界基底関数を仮定することによって、これらの結果のいくつかを導いた。
我々の主な成果は、任意の$p>1$に対して$ell_p$の重みを持つガウス核展開の$mathbbR2$の構築である。
論文 参考訳(メタデータ) (2024-10-02T10:10:30Z) - KPZ scaling from the Krylov space [83.88591755871734]
近年,Cardar-Parisi-Zhangスケーリングをリアルタイムの相関器や自動相関器に示す超拡散が報告されている。
これらの結果から着想を得て,Krylov演算子に基づく相関関数のKPZスケーリングについて検討する。
論文 参考訳(メタデータ) (2024-06-04T20:57:59Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Kernel $\epsilon$-Greedy for Contextual Bandits [4.1347433277076036]
我々は文脈的盗賊に対する$epsilon$-greedy戦略のカーネル版を考える。
報奨関数に対するオンライン重み付きカーネルリッジ回帰推定器を提案する。
論文 参考訳(メタデータ) (2023-06-29T22:48:34Z) - Gaussian random field approximation via Stein's method with applications to wide random neural networks [20.554836643156726]
我々は、よりスムーズな計量のバウンドを$W_$距離に転送できる新しいガウススムージング手法を開発した。
広帯域乱数ニューラルネットワークのガウス確率場近似の第一境界を求める。
我々の境界は、ネットワークの幅とランダムな重みのモーメントで明示的に表現される。
論文 参考訳(メタデータ) (2023-06-28T15:35:10Z) - A Nearly Tight Bound for Fitting an Ellipsoid to Gaussian Random Points [50.90125395570797]
このことは対数的因子の中でのciteSaundersonCPW12 の予想をほぼ成立させる。
後者の予想は、機械学習とある種の統計上の問題に対する2乗下界との結びつきから、過去10年間で大きな注目を集めている。
論文 参考訳(メタデータ) (2022-12-21T17:48:01Z) - Sobolev Spaces, Kernels and Discrepancies over Hyperspheres [4.521119623956821]
この研究は超球面文脈におけるカーネルメソッドの理論基盤を提供する。
超球面上で定義されたカーネルに付随するネイティブ空間(再生カーネルヒルベルト空間)とソボレフ空間を特徴付ける。
その結果,カーネルキュウチュアの直接的影響,最悪のケースエラーの収束率の決定,およびキュウチュアアルゴリズムの適用性の向上が得られた。
論文 参考訳(メタデータ) (2022-11-16T20:31:38Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Deep Neural Tangent Kernel and Laplace Kernel Have the Same RKHS [10.578438886506076]
より小さいパワー(カーネルのスムーズさを損なう)の指数的パワーカーネルは、より大きなRKHSにつながることを証明した。
また、ディープニューラルネットワークカーネルとLaplaceカーネルの再生カーネルヒルベルト空間(RKHS)が、同じ関数セットを含むことを証明した。
論文 参考訳(メタデータ) (2020-09-22T16:58:26Z) - Kernel-Based Reinforcement Learning: A Finite-Time Analysis [53.47210316424326]
モデルに基づく楽観的アルゴリズムであるKernel-UCBVIを導入する。
スパース報酬を伴う連続MDPにおける我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2020-04-12T12:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。