論文の概要: Variational bagging: a robust approach for Bayesian uncertainty quantification
- arxiv url: http://arxiv.org/abs/2511.20594v1
- Date: Tue, 25 Nov 2025 18:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.609739
- Title: Variational bagging: a robust approach for Bayesian uncertainty quantification
- Title(参考訳): 変分バッグング:ベイズの不確実性定量化のための頑健なアプローチ
- Authors: Shitao Fan, Ilsang Ohn, David Dunson, Lizhen Lin,
- Abstract要約: 本稿では,バラエティベイズとバッギング手法を統合した変分バッギング手法を提案する。
一般モデルに対する後部収縮率を含む強力な理論的保証を確立する。
我々は、パラメトリックモデル、有限混合モデル、ディープニューラルネットワーク、変分オートエンコーダ(VAE)への応用を通して、我々の変分バッグング法を数値的研究で説明する。
- 参考スコア(独自算出の注目度): 3.1932150827796675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Bayes methods are popular due to their computational efficiency and adaptability to diverse applications. In specifying the variational family, mean-field classes are commonly used, which enables efficient algorithms such as coordinate ascent variational inference (CAVI) but fails to capture parameter dependence and typically underestimates uncertainty. In this work, we introduce a variational bagging approach that integrates a bagging procedure with variational Bayes, resulting in a bagged variational posterior for improved inference. We establish strong theoretical guarantees, including posterior contraction rates for general models and a Bernstein-von Mises (BVM) type theorem that ensures valid uncertainty quantification. Notably, our results show that even when using a mean-field variational family, our approach can recover off-diagonal elements of the limiting covariance structure and provide proper uncertainty quantification. In addition, variational bagging is robust to model misspecification, with covariance structures matching those of the target covariance. We illustrate our variational bagging method in numerical studies through applications to parametric models, finite mixture models, deep neural networks, and variational autoencoders (VAEs).
- Abstract(参考訳): 変分ベイズ法は、計算効率と多様な応用への適応性から人気がある。
変分族を指定する際には、平均場クラスが一般的に用いられ、CAVI (Cooror Ascent variational Inference) のような効率的なアルゴリズムが可能であるが、パラメータ依存を捉えることができず、通常は不確実性を過小評価する。
本研究では,バラエティベイズとバッギング手順を統合したバラエティバッギング手法を導入し,バッギング後部をバッギングすることで推論を改善する手法を提案する。
一般モデルに対する後続の収縮率や、妥当な不確実性定量化を保証するベルンシュタイン・ヴォン・ミス(BVM)型定理など、強い理論的保証を確立する。
特に, 平均場変分族を用いても, 限界共分散構造の対角外要素を復元し, 適切な不確かさの定量化が可能であることを示す。
さらに、変分バッグングは、対象の共分散のものと一致する共分散構造を伴って、モデルの誤特定に対して堅牢である。
本稿では, パラメータモデル, 有限混合モデル, ディープニューラルネットワーク, 変分オートエンコーダ(VAE)への応用を通して, 数値解析における変分バッグング法について述べる。
関連論文リスト
- Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Learning Counterfactually Invariant Predictors [11.682403472580162]
我々はCIP(Counterfactual Invariant Prediction)と呼ばれるモデルに依存しないフレームワークを提案する。
実験の結果,CIPが様々なシミュレーションおよび実世界のデータセットに反実的不変性を付与する効果が示された。
論文 参考訳(メタデータ) (2022-07-20T09:23:35Z) - A Variational Approach to Bayesian Phylogenetic Inference [7.251627034538359]
ベイズ系統解析のための変分フレームワークを提案する。
我々はマルコフ勾配法による変分近似を訓練し、連続的および離散的な変分パラメータに対する推定器を採用する。
実データ系統推定問題に対するベンチマーク実験により,本手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2022-04-16T08:23:48Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Adaptive variational Bayes: Optimality, computation and applications [2.4022340214033915]
本稿では,モデル集合上で動作可能な適応型変分ベイズフレームワークを提案する。
適応変分ベイズは非常に一般的な条件下で最適な収縮率が得られることを示す。
論文 参考訳(メタデータ) (2021-09-07T17:18:28Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。