論文の概要: A Bayesian Generative Modeling Approach for Arbitrary Conditional Inference
- arxiv url: http://arxiv.org/abs/2601.05355v1
- Date: Thu, 08 Jan 2026 20:14:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.759429
- Title: A Bayesian Generative Modeling Approach for Arbitrary Conditional Inference
- Title(参考訳): 任意条件推論のためのベイズ生成モデル
- Authors: Qiao Liu, Wing Hung Wong,
- Abstract要約: 本稿では,任意の条件推論のためのベイズ生成モデル (BGM) を提案する。
BGMは、モデルパラメータと潜伏変数が収束するまで更新される反復ベイズ更新アルゴリズムを通してXの生成モデルを学ぶ。
経験的に、BGMはよく校正された予測間隔で優れた予測性能を達成する。
- 参考スコア(独自算出の注目度): 4.4876925770439415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern data analysis increasingly requires flexible conditional inference P(X_B | X_A) where (X_A, X_B) is an arbitrary partition of observed variable X. Existing conditional inference methods lack this flexibility as they are tied to a fixed conditioning structure and cannot perform new conditional inference once trained. To solve this, we propose a Bayesian generative modeling (BGM) approach for arbitrary conditional inference without retraining. BGM learns a generative model of X through an iterative Bayesian updating algorithm where model parameters and latent variables are updated until convergence. Once trained, any conditional distribution can be obtained without retraining. Empirically, BGM achieves superior prediction performance with well calibrated predictive intervals, demonstrating that a single learned model can serve as a universal engine for conditional prediction with uncertainty quantification. We provide theoretical guarantees for the convergence of the stochastic iterative algorithm, statistical consistency and conditional-risk bounds. The proposed BGM framework leverages the power of AI to capture complex relationships among variables while adhering to Bayesian principles, emerging as a promising framework for advancing various applications in modern data science. The code for BGM is freely available at https://github.com/liuq-lab/bayesgm.
- Abstract(参考訳): 現代のデータ分析では、(X_A, X_B) が観測変数 X の任意の分割であるようなフレキシブルな条件推論 P(X_B | X_A) がますます求められている。
そこで本研究では,任意の条件推論のためのベイズ生成モデル (BGM) を提案する。
BGMは、モデルパラメータと潜伏変数が収束するまで更新される反復ベイズ更新アルゴリズムを通してXの生成モデルを学ぶ。
一度訓練すると、任意の条件分布は再訓練なしで得ることができる。
経験的に、BGMは、よく校正された予測間隔で優れた予測性能を達成し、単一の学習モデルが不確実な定量化を伴う条件付き予測のための普遍的なエンジンとして機能できることを実証した。
確率的反復アルゴリズム、統計的一貫性、条件付きリスク境界の収束に関する理論的保証を提供する。
提案されたBGMフレームワークは、AIの力を活用して、変数間の複雑な関係をキャプチャし、ベイズ主義に固執する。
BGMのコードはhttps://github.com/liuq-lab/bayesgm.comで無料で入手できる。
関連論文リスト
- SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Zero-Shot Conditioning of Score-Based Diffusion Models by Neuro-Symbolic Constraints [1.1826485120701153]
本研究では,事前学習した無条件スコアベース生成モデルを用いて,任意の論理的制約の下で条件分布からサンプルを抽出する手法を提案する。
ユーザ定義制約の非正規化分布条件から標本化するために,学習したスコアの操作方法を示す。
ソフト論理制約を符号化するための柔軟で数値的に安定なニューロシンボリック・フレームワークを定義する。
論文 参考訳(メタデータ) (2023-08-31T08:25:47Z) - Wasserstein Generative Regression [6.366148239550708]
非パラメトリック回帰と条件分布学習のための新しい統一的アプローチを提案する。
提案手法は,生成学習フレームワークを用いた回帰関数と条件生成器を同時に推定する。
非漸近誤差境界の導出と適切な仮定の下でのアプローチの分布整合性による理論的保証を提供する。
論文 参考訳(メタデータ) (2023-06-27T02:44:54Z) - Ensemble Multi-Quantiles: Adaptively Flexible Distribution Prediction
for Uncertainty Quantification [4.728311759896569]
本稿では,機械学習における不確実性を定量化するために,分布予測の新しい,簡潔かつ効果的な手法を提案する。
これは回帰タスクにおいて$mathbbP(mathbfy|mathbfX=x)$の適応的に柔軟な分布予測を組み込む。
UCIデータセットからの大規模な回帰タスクでは、EMQが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-26T11:45:32Z) - Training and Inference on Any-Order Autoregressive Models the Right Way [97.39464776373902]
Any-Order Autoregressive Models (AO-ARMs) のファミリは、任意の条件付きタスクにおいてブレークスルーのパフォーマンスを示している。
我々は、AO-ARMの以前の定式化に対して行うべき重要な改善について確認する。
本手法はトラクタビリティを損なうことなく性能を向上する。
論文 参考訳(メタデータ) (2022-05-26T18:00:02Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。