論文の概要: Learning few-step posterior samplers by unfolding and distillation of diffusion models
- arxiv url: http://arxiv.org/abs/2507.02686v1
- Date: Thu, 03 Jul 2025 14:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.484814
- Title: Learning few-step posterior samplers by unfolding and distillation of diffusion models
- Title(参考訳): 拡散モデルの展開と蒸留による数段後部サンプルの学習
- Authors: Charlesquin Kemajou Mbakam, Jonathan Spence, Marcelo Pereyra,
- Abstract要約: 拡散モデル(DM)は、計算画像の強力な先行画像として登場した。
我々は, 深部展開とモデル蒸留を統合した新しい枠組みを導入し, DM画像から後部サンプリングのための数ステップの条件付きモデルに変換する。
- 参考スコア(独自算出の注目度): 0.18434042562191813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models (DMs) have emerged as powerful image priors in Bayesian computational imaging. Two primary strategies have been proposed for leveraging DMs in this context: Plug-and-Play methods, which are zero-shot and highly flexible but rely on approximations; and specialized conditional DMs, which achieve higher accuracy and faster inference for specific tasks through supervised training. In this work, we introduce a novel framework that integrates deep unfolding and model distillation to transform a DM image prior into a few-step conditional model for posterior sampling. A central innovation of our approach is the unfolding of a Markov chain Monte Carlo (MCMC) algorithm - specifically, the recently proposed LATINO Langevin sampler (Spagnoletti et al., 2025) - representing the first known instance of deep unfolding applied to a Monte Carlo sampling scheme. We demonstrate our proposed unfolded and distilled samplers through extensive experiments and comparisons with the state of the art, where they achieve excellent accuracy and computational efficiency, while retaining the flexibility to adapt to variations in the forward model at inference time.
- Abstract(参考訳): 拡散モデル (DM) はベイズ計算画像の強力な先行画像として出現している。
この文脈でDMを利用するための2つの主要な戦略が提案されている。0ショットで高い柔軟性を持つが近似に頼っているPlug-and-Playメソッドと、教師付きトレーニングによって特定のタスクに対するより高精度で高速な推論を実現する特別な条件付きDMである。
本研究では, 深部展開とモデル蒸留を統合した新しい枠組みを導入し, DM画像から後部サンプリングのための数ステップの条件付きモデルに変換する。
我々のアプローチにおける中心的な革新はマルコフ連鎖モンテカルロ (MCMC) アルゴリズムの展開であり、特に最近提案されたラチノ・ランゲヴィンサンプリング (Spagnoletti et al , 2025) はモンテカルロサンプリングスキームに適用された最初の深部展開の例である。
提案手法は,提案手法の精度と計算効率を向上すると共に,予測時の前方モデルの変動に適応する柔軟性を保ちながら,広範囲な実験と,最先端技術との比較により実証した。
関連論文リスト
- Directly Denoising Diffusion Models [6.109141407163027]
数ステップのサンプリングで現実的な画像を生成するための単純で汎用的なアプローチであるDDDM(Directly Denoising Diffusion Model)を提案する。
本モデルでは, CIFAR-10のFIDスコアを1段階, 2段階のサンプリングで2.57と2.33とし, GANと蒸留モデルから得られたFIDスコアをそれぞれ上回った。
ImageNet 64x64の場合、当社のアプローチは主要なモデルに対する競争相手として機能します。
論文 参考訳(メタデータ) (2024-05-22T11:20:32Z) - Align Your Steps: Optimizing Sampling Schedules in Diffusion Models [63.927438959502226]
拡散モデル(DM)は、視覚領域以降における最先端の生成モデリングアプローチとして確立されている。
DMの重大な欠点は、サンプリング速度の遅いことであり、大規模なニューラルネットワークによる多くのシーケンシャルな関数評価に依存している。
本稿では,DMのサンプリングスケジュールを高品質な出力に最適化する汎用的,原理的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T18:18:41Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。