論文の概要: Kernel Thinning
- arxiv url: http://arxiv.org/abs/2105.05842v1
- Date: Wed, 12 May 2021 17:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 13:07:22.154721
- Title: Kernel Thinning
- Title(参考訳): カーネルの薄型化
- Authors: Raaz Dwivedi, Lester Mackey
- Abstract要約: kernel thinning はmonte-carlo の近似を$mathbbp$ on $mathbbrd$ に近似する。
我々はgaussian, mat'ern, b-splineカーネルの非漸近的最大平均偏差境界を導出する。
- 参考スコア(独自算出の注目度): 25.21711170090549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce kernel thinning, a simple algorithm for generating
better-than-Monte-Carlo approximations to distributions $\mathbb{P}$ on
$\mathbb{R}^d$. Given $n$ input points, a suitable reproducing kernel
$\mathbf{k}$, and $\mathcal{O}(n^2)$ time, kernel thinning returns $\sqrt{n}$
points with comparable integration error for every function in the associated
reproducing kernel Hilbert space. With high probability, the maximum
discrepancy in integration error is $\mathcal{O}_d(n^{-\frac{1}{2}}\sqrt{\log
n})$ for compactly supported $\mathbb{P}$ and $\mathcal{O}_d(n^{-\frac{1}{2}}
\sqrt{(\log n)^{d+1}\log\log n})$ for sub-exponential $\mathbb{P}$. In
contrast, an equal-sized i.i.d. sample from $\mathbb{P}$ suffers
$\Omega(n^{-\frac14})$ integration error. Our sub-exponential guarantees
resemble the classical quasi-Monte Carlo error rates for uniform $\mathbb{P}$
on $[0,1]^d$ but apply to general distributions on $\mathbb{R}^d$ and a wide
range of common kernels. We use our results to derive explicit non-asymptotic
maximum mean discrepancy bounds for Gaussian, Mat\'ern, and B-spline kernels
and present two vignettes illustrating the practical benefits of kernel
thinning over i.i.d. sampling and standard Markov chain Monte Carlo thinning.
- Abstract(参考訳): カーネルのシントニングは、$\mathbb{P}$ on $\mathbb{R}^d$の分布により良いモンテカルロ近似を生成するための単純なアルゴリズムである。
n$ 入力ポイント、適切な再生成カーネル $\mathbf{k}$、および $\mathcal{o}(n^2)$ time が与えられると、カーネルシンニングは関連する再生成カーネルヒルベルト空間内のすべての関数に対して、同等の積分誤差を持つ$\sqrt{n}$ポイントを返す。
高確率では、積分誤差の最大誤差は$\mathcal{o}_d(n^{-\frac{1}{2}}\sqrt{\log n})$ で、コンパクトにサポートされている$\mathbb{p}$ と $\mathcal{o}_d(n^{-\frac{1}{2}} \sqrt{(\log n)^{d+1}\log\log n})$ for sub-exponential $\mathbb{p}$ である。
対照的に、等サイズのi.i.d。
サンプルは$\mathbb{p}$ で$\omega(n^{-\frac14})$ 統合エラーを被る。
このサブ指数保証は、$[0,1]^d$ で一様$\mathbb{p}$ の古典的な準モンテカルロ誤差率に似ているが、$\mathbb{r}^d$ の一般分布と幅広い共通カーネルに適用できる。
我々は,gaussian,mat\'ern,b-splineカーネルの非漸近的最大平均偏差境界を明示的に導出し,i.i.d.上でのカーネル薄化の実用的利点を示す2つのヴィグネットを提示する。
マルコフ連鎖モンテカルロ薄膜のサンプリングと標準化。
関連論文リスト
- Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Classical shadows of fermions with particle number symmetry [0.0]
我々は、$mathcalO(k2eta)$classic complexityを持つ任意の$k$-RDMに対する推定器を提供する。
ハーフフィリングの最悪の場合、我々の手法はサンプルの複雑さに4k$の利点をもたらす。
論文 参考訳(メタデータ) (2022-08-18T17:11:12Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。