論文の概要: Stein Variational Gaussian Processes
- arxiv url: http://arxiv.org/abs/2009.12141v3
- Date: Wed, 19 Jan 2022 16:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 22:32:40.351621
- Title: Stein Variational Gaussian Processes
- Title(参考訳): シュタイン変分ガウス過程
- Authors: Thomas Pinder, Christopher Nemeth, David Leslie
- Abstract要約: ガウス過程(GP)モデルにおいて,非ガウス的確率と大規模データ量を持つモデルにおいて,Stein variational descent (SVGD) を用いて推論を行う方法を示す。
本手法は, 回帰と分類の両面でのベンチマーク問題, 多モード後部, 550,134 回観測による空気品質の例で実証された。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how to use Stein variational gradient descent (SVGD) to carry out
inference in Gaussian process (GP) models with non-Gaussian likelihoods and
large data volumes. Markov chain Monte Carlo (MCMC) is extremely
computationally intensive for these situations, but the parametric assumptions
required for efficient variational inference (VI) result in incorrect inference
when they encounter the multi-modal posterior distributions that are common for
such models. SVGD provides a non-parametric alternative to variational
inference which is substantially faster than MCMC. We prove that for GP models
with Lipschitz gradients the SVGD algorithm monotonically decreases the
Kullback-Leibler divergence from the sampling distribution to the true
posterior. Our method is demonstrated on benchmark problems in both regression
and classification, a multimodal posterior, and an air quality example with
550,134 spatiotemporal observations, showing substantial performance
improvements over MCMC and VI.
- Abstract(参考訳): svgd(stein variational gradient descent)を用いてガウス過程(gp)モデルにおける非ガウス的可能性と大規模データボリュームの推論を行う方法を示す。
マルコフ連鎖モンテカルロ (mcmc) はこれらの状況において極めて計算量が多いが、効率的な変分推論 (vi) に必要なパラメトリックな仮定は、そのようなモデルに共通するマルチモーダルな後続分布に遭遇すると不正確な推論となる。
SVGDは、MCMCよりもかなり高速な変分推論に代わる非パラメトリックな代替手段を提供する。
リプシッツ勾配を持つGPモデルの場合、SVGDアルゴリズムはサンプリング分布から真の後部へのKulback-Leibler分散を単調に減少させる。
提案手法は, 回帰, 分類, 多モード後部, 550,134 時空間観測による空気品質の例において, MCMC と VI との比較で有意な性能改善を示した。
関連論文リスト
- A Stein Gradient Descent Approach for Doubly Intractable Distributions [5.63014864822787]
そこで本研究では,2重に抽出可能な分布を推定するために,モンテカルロ・スタイン変分勾配勾配(MC-SVGD)法を提案する。
提案手法は,後続分布に匹敵する推論性能を提供しながら,既存のアルゴリズムよりもかなりの計算ゲインを達成する。
論文 参考訳(メタデータ) (2024-10-28T13:42:27Z) - Annealed Stein Variational Gradient Descent for Improved Uncertainty Estimation in Full-Waveform Inversion [25.714206592953545]
変分推論 (VI) は、パラメトリックまたは非パラメトリックな提案分布の形で後部分布に近似的な解を与える。
本研究は、フルウェーブフォーム・インバージョンにおけるVIの性能向上を目的としている。
論文 参考訳(メタデータ) (2024-10-17T06:15:26Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - On MCMC for variationally sparse Gaussian processes: A pseudo-marginal
approach [0.76146285961466]
ガウス過程(GP)は、機械学習や統計学において強力なモデルを構築するために頻繁に用いられる。
本稿では,2重推定器による確率と大規模データセットの正確な推測と計算的ゲインを提供する擬似マージナル(PM)方式を提案する。
論文 参考訳(メタデータ) (2021-03-04T20:48:29Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Sparse Gaussian Processes with Spherical Harmonic Features [14.72311048788194]
領域間変分ガウス過程(GP)の新たなクラスを導入する。
我々の推論スキームは変分フーリエの特徴に匹敵するが、次元の呪いに苦しむことはない。
実験の結果,本モデルでは,600万項目のデータセットに対して,2桁の精度で回帰モデルを適合させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-30T10:19:32Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。