論文の概要: Fast and Scalable Spike and Slab Variable Selection in High-Dimensional
Gaussian Processes
- arxiv url: http://arxiv.org/abs/2111.04558v1
- Date: Mon, 8 Nov 2021 15:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:00:24.683219
- Title: Fast and Scalable Spike and Slab Variable Selection in High-Dimensional
Gaussian Processes
- Title(参考訳): 高次元ガウス過程における高速でスケーラブルなスパイクとスラブ可変選択
- Authors: Hugh Dance and Brooks Paige
- Abstract要約: 任意の異なるカーネルで抽出可能なスパイクとスラブGPの高速かつスケーラブルな変分推論アルゴリズムを開発した。
実験では、同様のランタイムを維持しながら、バニラおよびスパース変分GPを一貫して上回ります。
- 参考スコア(独自算出の注目度): 12.667478571732449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variable selection in Gaussian processes (GPs) is typically undertaken by
thresholding the inverse lengthscales of `automatic relevance determination'
kernels, but in high-dimensional datasets this approach can be unreliable. A
more probabilistically principled alternative is to use spike and slab priors
and infer a posterior probability of variable inclusion. However, existing
implementations in GPs are extremely costly to run in both high-dimensional and
large-$n$ datasets, or are intractable for most kernels. As such, we develop a
fast and scalable variational inference algorithm for the spike and slab GP
that is tractable with arbitrary differentiable kernels. We improve our
algorithm's ability to adapt to the sparsity of relevant variables by Bayesian
model averaging over hyperparameters, and achieve substantial speed ups using
zero temperature posterior restrictions, dropout pruning and nearest neighbour
minibatching. In experiments our method consistently outperforms vanilla and
sparse variational GPs whilst retaining similar runtimes (even when $n=10^6$)
and performs competitively with a spike and slab GP using MCMC but runs up to
$1000$ times faster.
- Abstract(参考訳): ガウス過程(GP)における可変選択は、通常、「自動関係決定」カーネルの逆長スケールをしきい値にすることで行われるが、高次元データセットでは、このアプローチは信頼できない。
より確率論的に原則化された選択肢は、スパイクとスラブの事前を使い、可変包含の後方確率を推定することである。
しかし、gpsの既存の実装は、高次元と大容量のn$データセットの両方で実行するのに非常にコストがかかり、ほとんどのカーネルでは役に立たない。
そこで我々は,任意の異なるカーネルで抽出可能なスパイクとスラブGPのための高速かつスケーラブルな変分推論アルゴリズムを開発した。
我々は,ハイパーパラメータ上で平均化するベイズモデルにより,関連する変数の空間性に適応するアルゴリズムの能力を向上し,温度後部制限やドロップアウトプルーニング,近傍のミニバッチによる大幅な高速化を実現する。
実験では, ベニラおよびスパース変分GPより常に優れ, 同様のランタイム($n=10^6$)を維持しながら, MCMCを用いたスパイクとスラブGPと競合するが, 最大1000ドル以上の高速動作を行う。
関連論文リスト
- Sparse Kernel Gaussian Processes through Iterative Charted Refinement
(ICR) [0.0]
本稿では,ガウス過程をモデル化するためのICR(Iterative Charted Refinement)という新しい生成手法を提案する。
ICRは、様々な解像度でモデル化された場所のビューとユーザが提供する座標チャートを組み合わせることで、長距離および短距離の相関を表現している。
ICRは、CPUとGPUの1桁の計算速度で既存の手法より優れています。
論文 参考訳(メタデータ) (2022-06-21T18:00:01Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Exact Gaussian Processes for Massive Datasets via Non-Stationary
Sparsity-Discovering Kernels [0.0]
本稿では,カーネルがスパース構造を誘導する代わりに,自然に構造されたスパース性を活用することを提案する。
超フレキシブル、コンパクトサポート、非定常カーネルの原理とHPCと制約付き最適化を組み合わせることで、500万のデータポイントを超える正確なGPをスケールできる。
論文 参考訳(メタデータ) (2022-05-18T16:56:53Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Reducing the Variance of Gaussian Process Hyperparameter Optimization
with Preconditioning [54.01682318834995]
プレコンディショニングは、行列ベクトル乗算を含む反復的な方法にとって非常に効果的なステップである。
プレコンディショニングには、これまで検討されていなかった付加的なメリットがあることを実証する。
基本的に無視可能なコストで、同時に分散を低減することができる。
論文 参考訳(メタデータ) (2021-07-01T06:43:11Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - MuyGPs: Scalable Gaussian Process Hyperparameter Estimation Using Local
Cross-Validation [1.2233362977312945]
本稿では,新しいGPハイパーパラメータ推定法であるMuyGPを提案する。
MuyGPsは、データの最も近い隣人構造を利用する事前のメソッドの上に構築される。
提案手法は, 解法と予測値の平均二乗誤差の両方において, 既知の競合よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-29T18:10:21Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Quadruply Stochastic Gaussian Processes [10.152838128195466]
本稿では,スケーラブルなガウス過程(GP)モデルをトレーニングするための変分推論手法を提案する。この手法は,トレーニング点数,$n$,カーネル近似で使用される数基底関数,$m$のいずれにも依存しない。
GPと関連ベクトルマシンを用いた大規模分類および回帰データセットの精度を,最大で$m = 107$の基底関数で示す。
論文 参考訳(メタデータ) (2020-06-04T17:06:25Z) - Near-linear Time Gaussian Process Optimization with Adaptive Batching
and Resparsification [119.41129787351092]
BBKBは非回帰GP最適化アルゴリズムで、ほぼ直線的に実行し、バッチで候補を選択する。
また,同じバウンダリを用いて,スパルスGP近似の更新コストを適応的に遅延させることで,ステップ毎の償却コストをほぼ一定に抑えることができることを示した。
論文 参考訳(メタデータ) (2020-02-23T17:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。