論文の概要: VarDiU: A Variational Diffusive Upper Bound for One-Step Diffusion Distillation
- arxiv url: http://arxiv.org/abs/2508.20646v1
- Date: Thu, 28 Aug 2025 10:47:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.344229
- Title: VarDiU: A Variational Diffusive Upper Bound for One-Step Diffusion Distillation
- Title(参考訳): VarDiU: 一段拡散蒸留用可変拡散上界
- Authors: Leyang Wang, Mingtian Zhang, Zijing Ou, David Barber,
- Abstract要約: 近年, 拡散蒸留法は, 1000段階の教師拡散モデルを1段階の生徒生成装置に圧縮している。
既存のアプローチのほとんどは、生徒のスコア関数を介して勾配を近似した拡散発散を用いて生徒モデルを訓練する。
本研究では, 拡散蒸留に直接適用可能な不偏勾配推定器を有する変分拡散性上界であるVarDiUを提案する。
- 参考スコア(独自算出の注目度): 16.15071476996734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, diffusion distillation methods have compressed thousand-step teacher diffusion models into one-step student generators while preserving sample quality. Most existing approaches train the student model using a diffusive divergence whose gradient is approximated via the student's score function, learned through denoising score matching (DSM). Since DSM training is imperfect, the resulting gradient estimate is inevitably biased, leading to sub-optimal performance. In this paper, we propose VarDiU (pronounced /va:rdju:/), a Variational Diffusive Upper Bound that admits an unbiased gradient estimator and can be directly applied to diffusion distillation. Using this objective, we compare our method with Diff-Instruct and demonstrate that it achieves higher generation quality and enables a more efficient and stable training procedure for one-step diffusion distillation.
- Abstract(参考訳): 近年, 拡散蒸留法は, サンプルの品質を維持しつつ, 千段階の教師拡散モデルを1段階の生徒生成装置に圧縮している。
既存のほとんどのアプローチは、生徒のスコアマッチング(DSM)を通して学習した、生徒のスコア関数を介して勾配を近似した拡散発散を用いて、生徒モデルを訓練する。
DSMトレーニングは不完全であるため、結果として生じる勾配推定は必然的にバイアスを受け、準最適性能をもたらす。
本稿では, 拡散蒸留に直接適用可能な非バイアス勾配推定器を有する変分拡散性上界であるVarDiU(va:rdju:/)を提案する。
本手法をDiff-Instructと比較し, 高い生成品質を達成し, 一段階拡散蒸留のためのより効率的で安定した訓練方法を実現することを実証した。
関連論文リスト
- Adversarial Distribution Matching for Diffusion Distillation Towards Efficient Image and Video Synthesis [65.77083310980896]
本稿では, 実測値と偽測値の間に潜時予測を整列させる適応分布マッチング (ADM) を提案する。
提案手法は,DMD2と比較してSDXLの1ステップ性能に優れ,GPU時間が少ない。
SD3-Medium, SD3.5-Large, CogVideoX に多段階の ADM 蒸留を適用した実験では, 画像と映像の効率的な合成に向けた新しいベンチマークが設定された。
論文 参考訳(メタデータ) (2025-07-24T16:45:05Z) - Mean-Shift Distillation for Diffusion Mode Seeking [29.341453176830225]
平均シフト蒸留は拡散出力分布の勾配のプロキシを提供する。
本研究は, モードアライメントが優れ, 合成および実用両方のコンバージェンスが改善されていることを示す。
論文 参考訳(メタデータ) (2025-02-21T22:58:56Z) - Inference-Time Diffusion Model Distillation [59.350789627086456]
本稿では,新しい推論時間蒸留フレームワークであるDistillation++を紹介する。
条件付きサンプリングの最近の進歩に触発されて,本手法は学生モデルサンプリングを近位最適化問題として再放送する。
逆サンプリング中の蒸留最適化を統合し,教師指導とみなすことができる。
論文 参考訳(メタデータ) (2024-12-12T02:07:17Z) - DDIL: Diversity Enhancing Diffusion Distillation With Imitation Learning [57.3467234269487]
拡散モデルは生成モデリング(例:text-to-image)に優れるが、サンプリングには複数の遅延ネットワークパスが必要である。
プログレッシブ蒸留や一貫性蒸留は、パスの数を減らして将来性を示す。
DDILの一貫性は, プログレッシブ蒸留 (PD), 潜在整合モデル (LCM) および分散整合蒸留 (DMD2) のベースラインアルゴリズムにより向上することを示した。
論文 参考訳(メタデータ) (2024-10-15T18:21:47Z) - Unleashing the Power of One-Step Diffusion based Image Super-Resolution via a Large-Scale Diffusion Discriminator [81.81748032199813]
拡散モデルは実世界の超解像(Real-ISR)に優れた性能を示した
SRのための大規模textbfDiscriminator を用いた One-Step textbfDiffusion モデルを提案する。
我々の判別器は、潜伏空間における拡散モデルの任意の時間ステップからノイズのある特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-10-05T16:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。