論文の概要: Noise Conditional Variational Score Distillation
- arxiv url: http://arxiv.org/abs/2506.09416v1
- Date: Wed, 11 Jun 2025 06:01:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.534024
- Title: Noise Conditional Variational Score Distillation
- Title(参考訳): 騒音条件変動スコア蒸留
- Authors: Xinyu Peng, Ziyang Zheng, Yaoming Wang, Han Li, Nuowen Kan, Wenrui Dai, Chenglin Li, Junni Zou, Hongkai Xiong,
- Abstract要約: 騒音条件変化スコア蒸留(NCVSD)は, 予混合拡散モデルから生成消音剤を蒸留する新しい方法である。
この知見を変分スコア蒸留フレームワークに組み込むことで、生成的デノイザのスケーラブルな学習を可能にする。
- 参考スコア(独自算出の注目度): 60.38982038894823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Noise Conditional Variational Score Distillation (NCVSD), a novel method for distilling pretrained diffusion models into generative denoisers. We achieve this by revealing that the unconditional score function implicitly characterizes the score function of denoising posterior distributions. By integrating this insight into the Variational Score Distillation (VSD) framework, we enable scalable learning of generative denoisers capable of approximating samples from the denoising posterior distribution across a wide range of noise levels. The proposed generative denoisers exhibit desirable properties that allow fast generation while preserve the benefit of iterative refinement: (1) fast one-step generation through sampling from pure Gaussian noise at high noise levels; (2) improved sample quality by scaling the test-time compute with multi-step sampling; and (3) zero-shot probabilistic inference for flexible and controllable sampling. We evaluate NCVSD through extensive experiments, including class-conditional image generation and inverse problem solving. By scaling the test-time compute, our method outperforms teacher diffusion models and is on par with consistency models of larger sizes. Additionally, with significantly fewer NFEs than diffusion-based methods, we achieve record-breaking LPIPS on inverse problems.
- Abstract(参考訳): 本研究では,前処理した拡散モデルから生成消音剤を蒸留する新しい手法であるNCVSDを提案する。
このことは,非条件スコア関数が後部分布を識別するスコア関数を暗黙的に特徴づけることによって達成される。
変動スコア蒸留(VSD)フレームワークにこの知見を組み込むことで、様々なノイズレベルにわたる後部分布からサンプルを近似できる生成的復調器のスケーラブルな学習を可能にする。
提案手法は,(1)純ガウス雑音からの高雑音レベルのサンプリングによる高速一段階生成,(2)多段階サンプリングによるテスト時間計算のスケーリングによるサンプリング品質の向上,(3)フレキシブルかつ制御可能なサンプリングのためのゼロショット確率推論,である。
我々は,クラス条件の画像生成や逆問題解決など,広範な実験を通じてNCVSDを評価する。
テスト時間計算のスケールアップにより,本手法は教師の拡散モデルよりも優れ,より大規模な一貫性モデルと同等である。
さらに,拡散法よりもNFEが著しく少ないため,逆問題に対してLPIPSを記録破りにする。
関連論文リスト
- Enhancing Sample Generation of Diffusion Models using Noise Level Correction [9.014666170540304]
提案手法は, 推定雑音レベルと雑音の真の距離を多様体に合わせることで, サンプル生成を向上する手法である。
具体的には,事前学習した騒音レベル補正ネットワークを導入し,騒音レベル推定を改良する。
実験結果から,本手法は,制約のない生成シナリオと制約のない生成シナリオの両方において,サンプルの品質を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-07T01:19:14Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Knowledge Distillation in Iterative Generative Models for Improved
Sampling Speed [0.0]
ノイズ条件スコアネットワークなどの反復生成モデルは、初期雑音ベクトルを徐々にデノベートすることで高品質なサンプルを生成する。
知識蒸留と画像生成の新たな関連性を確立し,多段階の認知過程を単一のステップに蒸留する手法を提案する。
我々のDenoising Studentsは、CIFAR-10とCelebAデータセットのGANに匹敵する高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2021-01-07T06:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。