論文の概要: Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance
- arxiv url: http://arxiv.org/abs/2402.02149v2
- Date: Sun, 2 Jun 2024 10:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 19:13:07.192853
- Title: Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance
- Title(参考訳): 最適後部共分散を用いた逆問題に対する拡散モデルの改善
- Authors: Xinyu Peng, Ziyang Zheng, Wenrui Dai, Nuoqian Xiao, Chenglin Li, Junni Zou, Hongkai Xiong,
- Abstract要約: 近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
- 参考スコア(独自算出の注目度): 52.093434664236014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent diffusion models provide a promising zero-shot solution to noisy linear inverse problems without retraining for specific inverse problems. In this paper, we reveal that recent methods can be uniformly interpreted as employing a Gaussian approximation with hand-crafted isotropic covariance for the intractable denoising posterior to approximate the conditional posterior mean. Inspired by this finding, we propose to improve recent methods by using more principled covariance determined by maximum likelihood estimation. To achieve posterior covariance optimization without retraining, we provide general plug-and-play solutions based on two approaches specifically designed for leveraging pre-trained models with and without reverse covariance. We further propose a scalable method for learning posterior covariance prediction based on representation with orthonormal basis. Experimental results demonstrate that the proposed methods significantly enhance reconstruction performance without requiring hyperparameter tuning.
- Abstract(参考訳): 近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
本稿では,近年の手法を,手作り等方性共分散を用いたガウス近似を用いて一様に解釈できることを示す。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
後続共分散の最適化を再学習せずに実現するため, 逆共分散を伴わずに事前学習したモデルを活用するために設計された2つのアプローチに基づいて, 汎用的なプラグアンドプレイソリューションを提供する。
さらに,正規化に基づく表現に基づく後部共分散予測のスケーラブルな学習法を提案する。
実験の結果,提案手法はハイパーパラメータチューニングを必要とせず,再現性を大幅に向上することが示された。
関連論文リスト
- Score-Based Variational Inference for Inverse Problems [19.848238197979157]
後部平均値が好ましいアプリケーションでは、時間を要する後部から複数のサンプルを生成する必要がある。
後部平均を直接対象とするフレームワークであるリバース平均伝搬(RMP)を確立する。
スコア関数を用いて逆KL分散を自然な勾配降下で最適化し,各逆ステップで平均を伝搬するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-08T02:55:16Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Amortized Posterior Sampling with Diffusion Prior Distillation [55.03585818289934]
逆問題の解法として, 後方分布からのサンプルの変分推論手法を提案する。
本手法はユークリッド空間の標準信号や多様体上の信号に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-25T09:53:12Z) - Diffusion Prior-Based Amortized Variational Inference for Noisy Inverse Problems [12.482127049881026]
そこで本稿では, 償却変分推論の観点から, 拡散による逆問題の解法を提案する。
我々の償却推論は、測定結果を対応するクリーンデータの暗黙の後方分布に直接マッピングする関数を学習し、未知の計測でも単一ステップの後方サンプリングを可能にする。
論文 参考訳(メタデータ) (2024-07-23T02:14:18Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - Improving Diffusion Models for Inverse Problems using Manifold Constraints [55.91148172752894]
我々は,現在の解法がデータ多様体からサンプルパスを逸脱し,エラーが蓄積することを示す。
この問題に対処するため、多様体の制約に着想を得た追加の補正項を提案する。
本手法は理論上も経験上も従来の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-02T09:06:10Z) - Fast Scalable Image Restoration using Total Variation Priors and
Expectation Propagation [7.7731951589289565]
本稿では,全変動(TV)を用いた画像復元のための拡張性のあるベイズ近似手法を提案する。
我々は期待伝搬(EP)フレームワークを用いて最小平均二乗誤差(MMSE)推定器と限界(ピクセル単位)分散を近似する。
論文 参考訳(メタデータ) (2021-10-04T17:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。