論文の概要: Amortized Simulation-Based Inference in Generalized Bayes via Neural Posterior Estimation
- arxiv url: http://arxiv.org/abs/2601.22367v1
- Date: Thu, 29 Jan 2026 22:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.096945
- Title: Amortized Simulation-Based Inference in Generalized Bayes via Neural Posterior Estimation
- Title(参考訳): ニューラル後部推定による一般化ベイズにおける補正シミュレーションに基づく推論
- Authors: Shiyi Sun, Geoff K. Nicholls, Jeong Eun Lee,
- Abstract要約: 一般化ベイズ推論(英語版)(GBI)は、過信を緩和し、モデルの不特定性の下で改善するために温度$>0$の損失を誘惑する。
本研究は,1つの前進パスでサンプリング可能な1ドル(x,)$条件のニューラルな後進推定器$q_(mid x,)$をトレーニングすることにより,最初の完全償却変分近似を後進群$p_(mid x) propto (),p(x mid )$に与える。
- 参考スコア(独自算出の注目度): 1.096028999747108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Bayesian Inference (GBI) tempers a loss with a temperature $β>0$ to mitigate overconfidence and improve robustness under model misspecification, but existing GBI methods typically rely on costly MCMC or SDE-based samplers and must be re-run for each new dataset and each $β$ value. We give the first fully amortized variational approximation to the tempered posterior family $p_β(θ\mid x) \propto π(θ)\,p(x \mid θ)^β$ by training a single $(x,β)$-conditioned neural posterior estimator $q_φ(θ\mid x,β)$ that enables sampling in a single forward pass, without simulator calls or inference-time MCMC. We introduce two complementary training routes: (i) synthesize off-manifold samples $(θ,x) \sim π(θ)\,p(x \mid θ)^β$ and (ii) reweight a fixed base dataset $π(θ)\,p(x \mid θ)$ using self-normalized importance sampling (SNIS). We show that the SNIS-weighted objective provides a consistent forward-KL fit to the tempered posterior with finite weight variance. Across four standard simulation-based inference (SBI) benchmarks, including the chaotic Lorenz-96 system, our $β$-amortized estimator achieves competitive posterior approximations in standard two-sample metrics, matching non-amortized MCMC-based power-posterior samplers over a wide range of temperatures.
- Abstract(参考訳): 一般化ベイズ推論(GBI)は、過信を緩和し、モデルの不特定性の下で堅牢性を改善するために温度$β>0$で損失を抑えるが、既存のGBIメソッドは通常、コストの高いMCMCまたはSDEベースのサンプルラーに依存し、新しいデータセットごとに再実行されなければならない。
提案手法は, 1 つの 1 つの $(x,β)$-条件付き神経後部推定器 $q_φ(θ\mid x,β)$ で,シミュレータコールや推論時間 MCMC を使わずに,単一の前方通過をサンプリングできる。
私たちは2つの補完的な訓練ルートを紹介します。
(i)オフマンフォールドサンプル$(θ,x) \sim π(θ)\,p(x \mid θ)^β$および
(ii)自己正規化重要度サンプリング(SNIS)を用いて固定ベースデータセット$π(θ)\,p(x \mid θ)$を再重み付けする。
SNIS重み付き目的は、有限重みつきの温め後部に一貫した前方KLを提供することを示す。
カオス的なLorenz-96システムを含む4つの標準シミュレーションベース推論(SBI)ベンチマークで、我々の$β$-amortized estimatorは標準的な2サンプルのメトリクスで競合する後続近似を達成し、MCMCベースの非アモルト化パワーポストサンプリングを広範囲の温度でマッチングする。
関連論文リスト
- Precise Asymptotics of Bagging Regularized M-estimators [20.077783679095443]
我々は,アンサンブル推定器の正方形予測リスクを,正規化M値推定器のサブタグ化(サブサンプルブートストラップ集約)により特徴付ける。
我々の分析の鍵は、重なり合うサブサンプル上の推定値と残差との相関関係の結合挙動に関する新しい結果である。
サブサンプルサイズ,アンサンブルサイズ,正規化の併用最適化は,全データに対してのみ,正規化器の最適化を著しく上回る。
論文 参考訳(メタデータ) (2024-09-23T17:48:28Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Posterior Coreset Construction with Kernelized Stein Discrepancy for
Model-Based Reinforcement Learning [78.30395044401321]
我々は、強化学習(MBRL)のための新しいモデルベースアプローチを開発する。
ターゲット遷移モデルの仮定を緩和し、混合モデルの一般的な族に属する。
連続的な制御環境では、壁時計の時間を最大50%削減することができる。
論文 参考訳(メタデータ) (2022-06-02T17:27:49Z) - Observable adjustments in single-index models for regularized
M-estimators [3.5353632767823506]
サンプルサイズが$n$ と dimension$p$ がともに増加するレジームでは、$hatbeta$ と予測値 $Xhatbeta$ の実証分布の振る舞いが以前特徴づけられた。
本稿では、$hatbeta$と$Xhatbeta$の実証分布を記述するために異なる理論を開発する。
論文 参考訳(メタデータ) (2022-04-14T14:32:02Z) - $p$-Generalized Probit Regression and Scalable Maximum Likelihood
Estimation via Sketching and Coresets [74.37849422071206]
本稿では, 2次応答に対する一般化線形モデルである,$p$一般化プロビット回帰モデルについて検討する。
p$の一般化されたプロビット回帰に対する最大可能性推定器は、大容量データ上で$(1+varepsilon)$の係数まで効率的に近似できることを示す。
論文 参考訳(メタデータ) (2022-03-25T10:54:41Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。