論文の概要: Variational Bayesian Monte Carlo with Noisy Likelihoods
- arxiv url: http://arxiv.org/abs/2006.08655v3
- Date: Mon, 19 Oct 2020 05:54:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:19:31.149510
- Title: Variational Bayesian Monte Carlo with Noisy Likelihoods
- Title(参考訳): 雑音に類似した変分ベイズ的モンテカルロ
- Authors: Luigi Acerbi
- Abstract要約: 我々は、期待情報ゲイン(EIG)や変動間距離(VIQR)など、新たなグローバルな'取得機能を導入する。
VBMC+VIQRは、接地トラス後部とモデル証拠の回収における最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 11.4219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Bayesian Monte Carlo (VBMC) is a recently introduced framework
that uses Gaussian process surrogates to perform approximate Bayesian inference
in models with black-box, non-cheap likelihoods. In this work, we extend VBMC
to deal with noisy log-likelihood evaluations, such as those arising from
simulation-based models. We introduce new `global' acquisition functions, such
as expected information gain (EIG) and variational interquantile range (VIQR),
which are robust to noise and can be efficiently evaluated within the VBMC
setting. In a novel, challenging, noisy-inference benchmark comprising of a
variety of models with real datasets from computational and cognitive
neuroscience, VBMC+VIQR achieves state-of-the-art performance in recovering the
ground-truth posteriors and model evidence. In particular, our method vastly
outperforms `local' acquisition functions and other surrogate-based inference
methods while keeping a small algorithmic cost. Our benchmark corroborates VBMC
as a general-purpose technique for sample-efficient black-box Bayesian
inference also with noisy models.
- Abstract(参考訳): 変分ベイズ的モンテカルロ(VBMC)は、最近導入されたフレームワークであり、黒箱非チープ確率のモデルにおいて、ガウス的プロセスサロゲートを用いて近似ベイズ的推論を行う。
本研究では,VBMCを拡張して,シミュレーションモデルから生じるような,ノイズの多いログライクな評価を行う。
本稿では,ノイズに頑健で,VBMC設定内で効率よく評価可能な,期待情報ゲイン(EIG)や変動間距離(VIQR)などの新たな「グローバル」取得機能を紹介する。
計算および認知神経科学からの実データを持つ様々なモデルからなる、新しい、挑戦的で騒がしい参照ベンチマークにおいて、vbmc+viqrは、基底後部とモデル証拠の回復において最先端のパフォーマンスを達成する。
特に,本手法は,アルゴリズムのコストを小さく抑えながら,ローカルな'取得関数や他の代理ベースの推論手法を大幅に上回る。
本ベンチマークでは,ノイズモデルを用いたサンプル効率のよいブラックボックスベイズ推定のための汎用手法としてvbmcを裏付ける。
関連論文リスト
- Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - PyVBMC: Efficient Bayesian inference in Python [8.924669503280333]
PyVBMCは、後方およびモデル推論のための変分ベイズモンテカルロ (VBMC) アルゴリズムのPython実装である。
VBMCは、モデル評価が軽度から極端に高価である場合に、効率的なパラメータ推定とモデル評価のために設計されている。
論文 参考訳(メタデータ) (2023-03-16T17:37:22Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Scalable Stochastic Parametric Verification with Stochastic Variational
Smoothed Model Checking [1.5293427903448025]
平滑モデル検査 (smMC) は, パラメータ空間全体の満足度関数を, 限られた観測値から推定することを目的としている。
本稿では,確率論的機械学習の最近の進歩を利用して,この限界を推し進める。
構成された満足度関数のスケーラビリティ,計算効率,精度を調べた結果,smMCとSV-smMCの性能を比較した。
論文 参考訳(メタデータ) (2022-05-11T10:43:23Z) - Cyclical Variational Bayes Monte Carlo for Efficient Multi-Modal
Posterior Distributions Evaluation [0.0]
変分推論は、後方近似を推定するためのサンプリング方法の代替手法である。
変分ベイジアンモンテカルロ法 (VBMC) は, 統計モデル更新問題に対処する目的で検討されている。
論文 参考訳(メタデータ) (2022-02-23T17:31:42Z) - Sample-Efficient Reinforcement Learning via Conservative Model-Based
Actor-Critic [67.00475077281212]
モデルベース強化学習アルゴリズムは、モデルフリーのアルゴリズムよりもサンプル効率が高い。
本稿では,精度の高い学習モデルに強く依存することなく,高いサンプル効率を実現する新しい手法を提案する。
CMBACは,いくつかの課題に対して,サンプル効率の点で最先端のアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:33:11Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Approximate Bayesian inference from noisy likelihoods with Gaussian
process emulated MCMC [0.24275655667345403]
ガウス過程(GP)を用いた対数様関数をモデル化する。
主な方法論的革新は、正確なメトロポリス・ハスティングス(MH)サンプリングが行う進歩をエミュレートするためにこのモデルを適用することである。
得られた近似サンプリング器は概念的には単純で、試料効率が高い。
論文 参考訳(メタデータ) (2021-04-08T17:38:02Z) - Fast Bayesian Estimation of Spatial Count Data Models [0.0]
シミュレーション問題ではなく最適化問題として変分ベイズ(VB)を導入する。
VB法は、観測されていないパラメータと空間依存性を持つ負二項モデルにおける後部推論のために導出される。
VBアプローチは、シミュレーションと経験的研究において、通常の8コアプロセッサ上でのMCMCの約45倍から50倍高速である。
論文 参考訳(メタデータ) (2020-07-07T10:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。