論文の概要: Uncertainty-Aware Surrogate-based Amortized Bayesian Inference for Computationally Expensive Models
- arxiv url: http://arxiv.org/abs/2505.08683v1
- Date: Tue, 13 May 2025 15:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.649195
- Title: Uncertainty-Aware Surrogate-based Amortized Bayesian Inference for Computationally Expensive Models
- Title(参考訳): 計算余剰モデルに対する不確実性を考慮したサロゲートに基づくアモータイズベイズ推定
- Authors: Stefania Scheurer, Philipp Reiser, Tim Brünnette, Wolfgang Nowak, Anneli Guthke, Paul-Christian Bürkner,
- Abstract要約: 不確かさを意識したサロゲートに基づくアモータイズベイズ推論(UA-SABI)を提案する。
実験により,厳密な時間制約下であっても,計算コストの高いモデルに対するベイズ推定を信頼性,高速かつ繰り返し行うことが可能であることが確認された。
- 参考スコア(独自算出の注目度): 1.5511264120614792
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bayesian inference typically relies on a large number of model evaluations to estimate posterior distributions. Established methods like Markov Chain Monte Carlo (MCMC) and Amortized Bayesian Inference (ABI) can become computationally challenging. While ABI enables fast inference after training, generating sufficient training data still requires thousands of model simulations, which is infeasible for expensive models. Surrogate models offer a solution by providing approximate simulations at a lower computational cost, allowing the generation of large data sets for training. However, the introduced approximation errors and uncertainties can lead to overconfident posterior estimates. To address this, we propose Uncertainty-Aware Surrogate-based Amortized Bayesian Inference (UA-SABI) - a framework that combines surrogate modeling and ABI while explicitly quantifying and propagating surrogate uncertainties through the inference pipeline. Our experiments show that this approach enables reliable, fast, and repeated Bayesian inference for computationally expensive models, even under tight time constraints.
- Abstract(参考訳): ベイズ予想は典型的には、後続分布を推定するために多くのモデル評価に依存する。
Markov Chain Monte Carlo (MCMC) や Amortized Bayesian Inference (ABI) のような確立された手法は計算的に困難になる。
ABIはトレーニング後の高速推論を可能にするが、十分なトレーニングデータを生成するには、高価なモデルでは不可能な何千ものモデルシミュレーションが必要である。
サロゲートモデルは、より低い計算コストで近似シミュレーションを提供することで、トレーニング用の大規模なデータセットを生成することができる。
しかし、導入された近似誤差と不確実性は、過信後推定につながる可能性がある。
この問題に対処するために、我々は、サロゲートモデリングとABIを組み合わせたフレームワークであるUncertainty-Aware Surrogate-based Amortized Bayesian Inference (UA-SABI)を提案する。
実験により,厳密な時間制約下であっても,計算コストの高いモデルに対するベイズ推定を信頼性,高速かつ繰り返し行うことが可能であることが確認された。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Uncertainty Quantification and Propagation in Surrogate-based Bayesian Inference [1.1383507019490222]
代理モデルはより複雑なシミュレーションモデルに対する概念近似である。
代理体の不確かさを定量化し、伝播することは、通常、特別な分析ケースに限られる。
本稿では,測定データを用いた代理モデルを用いたベイズ推定の3つの手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:31:52Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - $\beta$-Cores: Robust Large-Scale Bayesian Data Summarization in the
Presence of Outliers [14.918826474979587]
古典的ベイズ推定の質は、観測結果が推定データ生成モデルに適合するかどうかに大きく依存する。
本稿では,大容量データセットに同時スケール可能な変分推論手法を提案する。
多様なシミュレーションおよび実データ、および様々な統計モデルにおいて、我々のアプローチの適用性について説明する。
論文 参考訳(メタデータ) (2020-08-31T13:47:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。