論文の概要: Diffusion Bridge Variational Inference for Deep Gaussian Processes
- arxiv url: http://arxiv.org/abs/2509.19078v2
- Date: Wed, 01 Oct 2025 09:29:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.768567
- Title: Diffusion Bridge Variational Inference for Deep Gaussian Processes
- Title(参考訳): 深いガウス過程に対する拡散橋変分推定
- Authors: Jian Xu, Qibin Zhao, John Paisley, Delu Zeng,
- Abstract要約: 拡散橋変分推論(DBVI)は拡散変分推論(DDVI)の原理的拡張である
DBVIは学習可能なデータ依存の初期分布から逆拡散を開始する。
DDVIや他の変分ベースラインを予測精度、収束速度、後部品質で一貫して上回る。
- 参考スコア(独自算出の注目度): 31.082191748525137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Gaussian processes (DGPs) enable expressive hierarchical Bayesian modeling but pose substantial challenges for posterior inference, especially over inducing variables. Denoising diffusion variational inference (DDVI) addresses this by modeling the posterior as a time-reversed diffusion from a simple Gaussian prior. However, DDVI's fixed unconditional starting distribution remains far from the complex true posterior, resulting in inefficient inference trajectories and slow convergence. In this work, we propose Diffusion Bridge Variational Inference (DBVI), a principled extension of DDVI that initiates the reverse diffusion from a learnable, data-dependent initial distribution. This initialization is parameterized via an amortized neural network and progressively adapted using gradients from the ELBO objective, reducing the posterior gap and improving sample efficiency. To enable scalable amortization, we design the network to operate on the inducing inputs, which serve as structured, low-dimensional summaries of the dataset and naturally align with the inducing variables' shape. DBVI retains the mathematical elegance of DDVI, including Girsanov-based ELBOs and reverse-time SDEs,while reinterpreting the prior via a Doob-bridged diffusion process. We derive a tractable training objective under this formulation and implement DBVI for scalable inference in large-scale DGPs. Across regression, classification, and image reconstruction tasks, DBVI consistently outperforms DDVI and other variational baselines in predictive accuracy, convergence speed, and posterior quality.
- Abstract(参考訳): ディープ・ガウス過程(DGP)は表現的階層的ベイズ的モデリングを可能にするが、特に変数の誘導よりも後部推論に重大な課題をもたらす。
拡散変分推論(DDVI)は、後部を単純なガウス前の時間反転拡散としてモデル化することでこの問題に対処する。
しかし、DDVIの固定された無条件開始分布は複素真の後部から遠く離れており、非効率な推論軌道と緩やかな収束をもたらす。
本研究では,Diffusion Bridge Variational Inference (DBVI)を提案する。Diffusion Bridge Variational Inference (DDVI) は,学習可能なデータ依存の初期分布から逆拡散を開始するDDVIの原理拡張である。
この初期化は、償却ニューラルネットワークを介してパラメータ化され、ELBO目標からの勾配を用いて段階的に適応し、後部ギャップを低減し、サンプル効率を向上させる。
スケーラブルなアモート化を実現するために、我々は、データセットの構造的、低次元の要約として機能し、帰納変数の形状と自然に整合するインジェクションインプットを操作するネットワークを設計する。
DBVIは、GirsanovベースのELBOやリバースタイムSDEを含むDDVIの数学的エレガンスを維持しつつ、doob-bridged拡散プロセスを通じて前者を解釈する。
本稿では,この定式化の下で,大規模DGPにおける拡張性推論のためのDBVIを実装したトラクタブルトレーニング目標を導出する。
回帰、分類、画像再構成のタスク全体で、DBVIはDDVIや他の変分ベースラインを予測精度、収束速度、後部品質で一貫して上回る。
関連論文リスト
- Diffusion State-Guided Projected Gradient for Inverse Problems [82.24625224110099]
逆問題に対する拡散状態ガイド型射影勾配(DiffStateGrad)を提案する。
DiffStateGrad は拡散過程の中間状態の低ランク近似である部分空間に測定勾配を投影する。
DiffStateGradは、測定手順のステップサイズとノイズの選択によって拡散モデルのロバスト性を向上させる。
論文 参考訳(メタデータ) (2024-10-04T14:26:54Z) - Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling [22.256068524699472]
本研究では,これらの問題に対処するために,Annealed Importance Smpling (AIS)アプローチを提案する。
シークエンシャルモンテカルロサンプリング器とVIの強度を組み合わせることで、より広い範囲の後方分布を探索し、徐々にターゲット分布に接近する。
実験結果から,本手法はより厳密な変動境界,高い対数類似度,より堅牢な収束率で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T08:09:05Z) - Denoising Diffusion Variational Inference: Diffusion Models as Expressive Variational Posteriors [11.01598521921903]
DDVIは潜在変数モデルのためのブラックボックス変分推論アルゴリズムである。
拡散に基づく変動後肢の表現型クラスを導入する。
我々はこれらの後部を、新しい規則化された証拠を低い境界で訓練する。
論文 参考訳(メタデータ) (2024-01-05T10:27:44Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。