論文の概要: Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels
- arxiv url: http://arxiv.org/abs/2006.03673v1
- Date: Fri, 5 Jun 2020 20:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:09:49.048006
- Title: Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels
- Title(参考訳): コンパクト支持カーネルのパラメトリックファミリによるスパースガウス過程
- Authors: Jarred Barber
- Abstract要約: 本稿では,コンパクトなサポートを持つカーネル関数のパラメトリック族を導出する手法を提案する。
この種類のカーネルのパラメータは、最大推定値を用いてデータから学習することができる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、正確なモデルに対して最小限の誤差を生じさせることを示す。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian processes are powerful models for probabilistic machine learning,
but are limited in application by their $O(N^3)$ inference complexity. We
propose a method for deriving parametric families of kernel functions with
compact spatial support, which yield naturally sparse kernel matrices and
enable fast Gaussian process inference via sparse linear algebra. These
families generalize known compactly-supported kernel functions, such as the
Wendland polynomials. The parameters of this family of kernels can be learned
from data using maximum likelihood estimation. Alternatively, we can quickly
compute compact approximations of a target kernel using convex optimization. We
demonstrate that these approximations incur minimal error over the exact models
when modeling data drawn directly from a target GP, and can out-perform the
traditional GP kernels on real-world signal reconstruction tasks, while
exhibiting sub-quadratic inference complexity.
- Abstract(参考訳): ガウス過程は確率的機械学習の強力なモデルであるが、O(N^3)$推論複雑性によって応用に制限される。
本稿では,コンパクトな空間的支援により,自然にスパースなカーネル行列を生成し,スパース線形代数による高速ガウス過程推論を可能にする,カーネル関数のパラメトリック族を導出する手法を提案する。
これらの族は、ウェンドランド多項式のような既知のコンパクト支持カーネル関数を一般化する。
この一連のカーネルのパラメータは、最大確率推定を用いてデータから学習することができる。
あるいは、凸最適化を用いて、ターゲットカーネルのコンパクト近似を迅速に計算できる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、精度の低いモデルに対して最小限の誤差を発生させることを示した。
関連論文リスト
- Compactly-supported nonstationary kernels for computing exact Gaussian processes on big data [2.8377382540923004]
スパーシリティと非定常性の両方を発見およびエンコードできる代替カーネルを導出する。
我々は,既存の精密かつ近似的なGP法と比較して,新しいカーネルの性能を実証する。
また,1日当たりの最大気温を100万回以上測定し,時空間予測を行った。
論文 参考訳(メタデータ) (2024-11-07T20:07:21Z) - Gaussian Process Regression under Computational and Epistemic Misspecification [4.5656369638728656]
大規模データアプリケーションでは、カーネルの低ランクあるいはスパース近似を用いて計算コストを削減できる。
本稿では,そのようなカーネル近似が要素誤差に与える影響について検討する。
論文 参考訳(メタデータ) (2023-12-14T18:53:32Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Local Random Feature Approximations of the Gaussian Kernel [14.230653042112834]
本稿では,一般的なガウスカーネルと,ランダムな特徴近似を用いてカーネルベースモデルを線形化する手法に着目する。
このような手法は、高周波データをモデル化する際、悪い結果をもたらすことを示すとともに、カーネル近似と下流性能を大幅に改善する新たなローカライズ手法を提案する。
論文 参考訳(メタデータ) (2022-04-12T09:52:36Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - The Fast Kernel Transform [21.001203328543006]
本稿では,FKT(Fast Kernel Transform:高速カーネル変換)を提案する。
FKT はガウス、マテルン、ラショナル四次共分散関数や物理的に動機付けられたグリーン関数など、幅広い種類のカーネルに容易に適用できる。
本稿では、時間と精度のベンチマークを提供することによりFKTの有効性と汎用性を説明し、それを近隣埋め込み(t-SNE)とガウス過程を大規模実世界のデータセットに拡張する。
論文 参考訳(メタデータ) (2021-06-08T16:15:47Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。