論文の概要: Latent-IMH: Efficient Bayesian Inference for Inverse Problems with Approximate Operators
- arxiv url: http://arxiv.org/abs/2601.20888v1
- Date: Wed, 28 Jan 2026 03:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.35378
- Title: Latent-IMH: Efficient Bayesian Inference for Inverse Problems with Approximate Operators
- Title(参考訳): 近似演算子を用いた逆問題に対する潜在IMH効率的なベイズ推定
- Authors: Youguang Chen, George Biros,
- Abstract要約: 本稿では,メトロポリス・ハスティングス独立法(IMH)に基づくサンプリング手法であるLatent-IMHを紹介する。
Latent-IMHは、まず近似$tildeA$を使用して中間潜時変数を生成し、それから正確な$A$を使ってそれらを洗練する。
KLの発散と混合時間境界を用いたLatent-IMHの性能を理論的に解析する。
- 参考スコア(独自算出の注目度): 4.887201041798969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study sampling from posterior distributions in Bayesian linear inverse problems where $A$, the parameters to observables operator, is computationally expensive. In many applications, $A$ can be factored in a manner that facilitates the construction of a cost-effective approximation $\tilde{A}$. In this framework, we introduce Latent-IMH, a sampling method based on the Metropolis-Hastings independence (IMH) sampler. Latent-IMH first generates intermediate latent variables using the approximate $\tilde{A}$, and then refines them using the exact $A$. Its primary benefit is that it shifts the computational cost to an offline phase. We theoretically analyze the performance of Latent-IMH using KL divergence and mixing time bounds. Using numerical experiments on several model problems, we show that, under reasonable assumptions, it outperforms state-of-the-art methods such as the No-U-Turn sampler (NUTS) in computational efficiency. In some cases, Latent-IMH can be orders of magnitude faster than existing schemes.
- Abstract(参考訳): 本研究では,可観測作用素のパラメータである$A$が計算コストが高いベイズ線形逆問題における後続分布のサンプリングについて検討する。
多くのアプリケーションにおいて、$A$ はコスト効率の良い近似 $\tilde{A}$ の構築を容易にする方法で分解できる。
本稿では,メトロポリス・ハスティングス独立サンプリング(IMH)に基づくサンプリング手法であるLatent-IMHを紹介する。
Latent-IMH は、まず近似 $\tilde{A}$ を使って中間潜時変数を生成し、それから正確な$A$ を使ってそれらを洗練する。
その主な利点は、計算コストをオフラインフェーズに移行することである。
KLの発散と混合時間境界を用いたLatent-IMHの性能を理論的に解析する。
いくつかのモデル問題に関する数値実験を用いて、妥当な仮定の下では、No-U-Turn sampler (NUTS) のような最先端の手法よりも計算効率が高いことを示す。
場合によっては、Latent-IMHは既存のスキームよりも桁違いに高速である。
関連論文リスト
- Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Langevin Thompson Sampling with Logarithmic Communication: Bandits and
Reinforcement Learning [34.4255062106615]
トンプソンサンプリング(TS)は、使用が容易で、経験的性能に訴えるため、シーケンシャルな意思決定に広く用いられている。
バッチ化された$textitLangevin Thompson Sampling$アルゴリズムを提案する。
アルゴリズムは計算効率が高く,MABでは$mathcalO(log T)$,RLでは$mathcalO(sqrtT)$と同じオーダー最適後悔保証を維持している。
論文 参考訳(メタデータ) (2023-06-15T01:16:29Z) - Minimax Optimal Online Imitation Learning via Replay Estimation [47.83919594113314]
本稿では,この経験的分散を低減するために,リプレイ推定手法を提案する。
提案手法では, min(H3/2 / N, H / sqrtN$)$ 依存度を最適に$widetildeO に設定する。
論文 参考訳(メタデータ) (2022-05-30T19:29:56Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。