論文の概要: Conditional neural control variates for variance reduction in Bayesian inverse problems
- arxiv url: http://arxiv.org/abs/2602.21357v1
- Date: Tue, 24 Feb 2026 20:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.603045
- Title: Conditional neural control variates for variance reduction in Bayesian inverse problems
- Title(参考訳): ベイズ逆問題における分散低減のための条件付きニューラルコントロール変数
- Authors: Ali Siahkoohi, Hyunwoo Oh,
- Abstract要約: 我々はモンテカルロ推定器の分散を低減するために条件付きニューラル・コントロール・バリアントを導入する。
トレーニングには未知のパラメータと観測データの共同分布からのサンプルが必要である。
我々は,スタイリングおよび偏微分方程式に制約されたダーシー流逆問題に対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 3.3999373406262663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian inference for inverse problems involves computing expectations under posterior distributions -- e.g., posterior means, variances, or predictive quantities -- typically via Monte Carlo (MC) estimation. When the quantity of interest varies significantly under the posterior, accurate estimates demand many samples -- a cost often prohibitive for partial differential equation-constrained problems. To address this challenge, we introduce conditional neural control variates, a modular method that learns amortized control variates from joint model-data samples to reduce the variance of MC estimators. To scale to high-dimensional problems, we leverage Stein's identity to design an architecture based on an ensemble of hierarchical coupling layers with tractable Jacobian trace computation. Training requires: (i) samples from the joint distribution of unknown parameters and observed data; and (ii) the posterior score function, which can be computed from physics-based likelihood evaluations, neural operator surrogates, or learned generative models such as conditional normalizing flows. Once trained, the control variates generalize across observations without retraining. We validate our approach on stylized and partial differential equation-constrained Darcy flow inverse problems, demonstrating substantial variance reduction, even when the analytical score is replaced by a learned surrogate.
- Abstract(参考訳): 逆問題に対するベイズ予想は、一般にモンテカルロ(MC)の推定を通じて、後続分布(例えば、後続平均、分散、予測量)下での予測を計算することを含む。
関心の量が後方で著しく異なる場合、正確な推定では多くのサンプルが要求されるが、これは偏微分方程式に制約された問題に対してしばしば禁じられる。
この課題に対処するために、我々は、MC推定器のばらつきを低減するために、関節モデルデータサンプルから償却制御を学習するモジュラー手法である条件付きニューラルコントロール変数を導入する。
高次元問題にスケールするために、ステインのアイデンティティを活用し、階層的結合層とトラクタブルなヤコビアントレース計算のアンサンブルに基づくアーキテクチャを設計する。
訓練が必要。
一 未知のパラメータ及び観測データの共同分布からのサンプル
二 物理に基づく確率評価、ニューラル演算子代理、条件付き正規化フローなどの学習生成モデルから計算できる後部スコア関数。
一度訓練すると、制御変数は再訓練せずに観察全体にわたって一般化される。
我々は,解析的スコアを学習代用に置き換えた場合でも,スタイリングおよび偏微分方程式制約のダーシー流逆問題に対するアプローチを検証する。
関連論文リスト
- An Elementary Approach to Scheduling in Generative Diffusion Models [55.171367482496755]
生成拡散モデルにおけるノイズスケジューリングと時間離散化の影響を特徴付けるための基礎的手法を開発した。
異なるデータセットと事前訓練されたモデルにわたる実験により、我々のアプローチによって選択された時間離散化戦略が、ベースラインとサーチベースの戦略を一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-20T05:06:26Z) - Efficient Covariance Estimation for Sparsified Functional Data [51.69796254617083]
共分散関数のランダムノット(ランダムノット-空間)とB-スプライン(Bspline-Spatial)推定器は計算的に効率的である。
共分散の漸近的なポイントワイドは、ある規則性条件下でのスパース化された個々の軌跡に対して得られる。
論文 参考訳(メタデータ) (2025-11-23T00:50:33Z) - EquiReg: Equivariance Regularized Diffusion for Inverse Problems [67.01847869495558]
拡散に基づく逆問題解法における後方サンプリングを正規化するためのフレームワークであるEquiReg拡散法を提案する。
様々な解法に適用すると、EquiRegは線形および非線形画像復元タスクにおいて最先端の拡散モデルより優れる。
論文 参考訳(メタデータ) (2025-05-29T01:25:43Z) - Amortized In-Context Bayesian Posterior Estimation [15.714462115687096]
償却は条件付き推定を通じて、そのような困難を和らげるための実行可能な戦略である。
本研究では,アモルト化インコンテクストベイズ推定手法の徹底的な比較分析を行う。
本稿では,予測問題に対する逆KL推定器の優位性,特に変圧器アーキテクチャと正規化フローを併用した場合に強調する。
論文 参考訳(メタデータ) (2025-02-10T16:00:48Z) - Amortized Posterior Sampling with Diffusion Prior Distillation [55.03585818289934]
Amortized Posterior Smplingは、逆問題における効率的な後方サンプリングのための新しい変分推論手法である。
本手法は,拡散モデルにより暗黙的に定義された変動分布と後続分布とのばらつきを最小限に抑えるために条件付き流れモデルを訓練する。
既存の手法とは異なり、我々のアプローチは教師なしであり、ペア化されたトレーニングデータを必要としておらず、ユークリッドと非ユークリッドの両方のドメインに適用できる。
論文 参考訳(メタデータ) (2024-07-25T09:53:12Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Leveraging Nested MLMC for Sequential Neural Posterior Estimation with Intractable Likelihoods [0.38233569758620045]
ニューラルネットワークに基づく条件密度推定器を用いて適応的に提案されたシミュレーションから後部を学習することを目的とする。
Greenbergらによって提案された自動後部変換(APT)法は,高レベルのランタイムデータに対して良好に動作し,スケールする。
本稿では,APTをネスト推定問題として再検討する。
損失関数とその勾配に対するマルチモンテカルロ (MLMC) 推定器を構築し, 異なるシナリオに対応する。
論文 参考訳(メタデータ) (2024-01-30T06:29:41Z) - Learning to solve Bayesian inverse problems: An amortized variational inference approach using Gaussian and Flow guides [0.0]
本研究では,ベイズ逆写像,すなわちデータから後部への写像を学習することで,リアルタイムな推論を可能にする手法を開発する。
我々のアプローチは、ニューラルネットワークの前方通過のコストで、所定の観測のための後部分布を提供する。
論文 参考訳(メタデータ) (2023-05-31T16:25:07Z) - Reliable amortized variational inference with physics-based latent
distribution correction [0.4588028371034407]
ニューラルネットワークは、既存のモデルとデータのペアの後方分布を近似するように訓練される。
このアプローチの精度は、高忠実度トレーニングデータの可用性に依存する。
補正ステップは, ソース実験数の変化, ノイズ分散, 先行分布の変化に対して, 償却された変分推論の頑健さを向上することを示す。
論文 参考訳(メタデータ) (2022-07-24T02:38:54Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。