論文の概要: Learning few-step posterior samplers by unfolding and distillation of diffusion models
- arxiv url: http://arxiv.org/abs/2507.02686v1
- Date: Thu, 03 Jul 2025 14:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.484814
- Title: Learning few-step posterior samplers by unfolding and distillation of diffusion models
- Title(参考訳): 拡散モデルの展開と蒸留による数段後部サンプルの学習
- Authors: Charlesquin Kemajou Mbakam, Jonathan Spence, Marcelo Pereyra,
- Abstract要約: 拡散モデル(DM)は、計算画像の強力な先行画像として登場した。
我々は, 深部展開とモデル蒸留を統合した新しい枠組みを導入し, DM画像から後部サンプリングのための数ステップの条件付きモデルに変換する。
- 参考スコア(独自算出の注目度): 0.18434042562191813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models (DMs) have emerged as powerful image priors in Bayesian computational imaging. Two primary strategies have been proposed for leveraging DMs in this context: Plug-and-Play methods, which are zero-shot and highly flexible but rely on approximations; and specialized conditional DMs, which achieve higher accuracy and faster inference for specific tasks through supervised training. In this work, we introduce a novel framework that integrates deep unfolding and model distillation to transform a DM image prior into a few-step conditional model for posterior sampling. A central innovation of our approach is the unfolding of a Markov chain Monte Carlo (MCMC) algorithm - specifically, the recently proposed LATINO Langevin sampler (Spagnoletti et al., 2025) - representing the first known instance of deep unfolding applied to a Monte Carlo sampling scheme. We demonstrate our proposed unfolded and distilled samplers through extensive experiments and comparisons with the state of the art, where they achieve excellent accuracy and computational efficiency, while retaining the flexibility to adapt to variations in the forward model at inference time.
- Abstract(参考訳): 拡散モデル (DM) はベイズ計算画像の強力な先行画像として出現している。
この文脈でDMを利用するための2つの主要な戦略が提案されている。0ショットで高い柔軟性を持つが近似に頼っているPlug-and-Playメソッドと、教師付きトレーニングによって特定のタスクに対するより高精度で高速な推論を実現する特別な条件付きDMである。
本研究では, 深部展開とモデル蒸留を統合した新しい枠組みを導入し, DM画像から後部サンプリングのための数ステップの条件付きモデルに変換する。
我々のアプローチにおける中心的な革新はマルコフ連鎖モンテカルロ (MCMC) アルゴリズムの展開であり、特に最近提案されたラチノ・ランゲヴィンサンプリング (Spagnoletti et al , 2025) はモンテカルロサンプリングスキームに適用された最初の深部展開の例である。
提案手法は,提案手法の精度と計算効率を向上すると共に,予測時の前方モデルの変動に適応する柔軟性を保ちながら,広範囲な実験と,最先端技術との比較により実証した。
関連論文リスト
- Inversion-DPO: Precise and Efficient Post-Training for Diffusion Models [14.976130146925724]
Inversion-DPOは報酬モデリングを回避するアライメントフレームワークである。
本手法は, 拡散DPOにおいて, 入賞・敗戦からノイズへの決定論的逆転を伴って, 抽出可能な後部サンプリングを行う。
Inversion-DPOをテキスト・画像生成の基本課題と合成画像生成の課題に適用する。
論文 参考訳(メタデータ) (2025-07-14T02:59:28Z) - Unleashing High-Quality Image Generation in Diffusion Sampling Using Second-Order Levenberg-Marquardt-Langevin [19.316680628326406]
拡散ヘッセン幾何学を学習自由な方法で近似する新しいレバンス・マルカルト・ランジュヴィン法(LML)を導入する。
このLML近似ヘッセン幾何により、拡散サンプリングによりより正確なステップを実行し、画像生成品質を向上させることができる。
論文 参考訳(メタデータ) (2025-05-30T05:21:44Z) - Arbitrary-steps Image Super-resolution via Diffusion Inversion [68.78628844966019]
本研究では,拡散インバージョンに基づく新しい画像超解像(SR)手法を提案する。
本研究では,拡散モデルの中間状態を構築するための部分雑音予測戦略を設計する。
トレーニングが完了すると、このノイズ予測器を使用して、拡散軌道に沿ってサンプリングプロセスを部分的に初期化し、望ましい高分解能結果を生成する。
論文 参考訳(メタデータ) (2024-12-12T07:24:13Z) - EM Distillation for One-step Diffusion Models [65.57766773137068]
最小品質の損失を最小限に抑えた1ステップ生成モデルに拡散モデルを蒸留する最大可能性に基づく手法を提案する。
本研究では, 蒸留プロセスの安定化を図るため, 再パラメータ化サンプリング手法とノイズキャンセリング手法を開発した。
論文 参考訳(メタデータ) (2024-05-27T05:55:22Z) - Directly Denoising Diffusion Models [6.109141407163027]
数ステップのサンプリングで現実的な画像を生成するための単純で汎用的なアプローチであるDDDM(Directly Denoising Diffusion Model)を提案する。
本モデルでは, CIFAR-10のFIDスコアを1段階, 2段階のサンプリングで2.57と2.33とし, GANと蒸留モデルから得られたFIDスコアをそれぞれ上回った。
ImageNet 64x64の場合、当社のアプローチは主要なモデルに対する競争相手として機能します。
論文 参考訳(メタデータ) (2024-05-22T11:20:32Z) - Align Your Steps: Optimizing Sampling Schedules in Diffusion Models [63.927438959502226]
拡散モデル(DM)は、視覚領域以降における最先端の生成モデリングアプローチとして確立されている。
DMの重大な欠点は、サンプリング速度の遅いことであり、大規模なニューラルネットワークによる多くのシーケンシャルな関数評価に依存している。
本稿では,DMのサンプリングスケジュールを高品質な出力に最適化する汎用的,原理的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T18:18:41Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Self-supervised Pre-training with Hard Examples Improves Visual
Representations [110.23337264762512]
自己教師付き事前学習(ssp)は、ランダムな画像変換を用いて視覚表現学習のためのトレーニングデータを生成する。
まず,既存のSSPメソッドを擬似ラベル予測学習として統合するモデリングフレームワークを提案する。
そこで本研究では,疑似ラベルの予測が難しい学習例をランダムな画像変換で生成するデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2020-12-25T02:44:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。