論文の概要: Distribution Matching Distillation Meets Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.13649v2
- Date: Wed, 19 Nov 2025 17:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.42857
- Title: Distribution Matching Distillation Meets Reinforcement Learning
- Title(参考訳): 分散マッチング蒸留と強化学習
- Authors: Dengyang Jiang, Dongyang Liu, Zanyi Wang, Qilong Wu, Liuzhuozheng Li, Hengzhuang Li, Xin Jin, David Liu, Zhen Li, Bo Zhang, Mengmeng Wang, Steven Hoi, Peng Gao, Harry Yang,
- Abstract要約: 本稿では,RL(Reinforcement Learning)技術と蒸留プロセスを組み合わせた新しいフレームワークDMDRを提案する。
数ステップのジェネレータのRLでは、MDD損失自体が従来のジェネレータよりも効果的な正規化であることを示す。
実験により、DMDRは目立った視覚的品質を達成でき、数ステップの手法間のコヒーレンスを促進でき、多ステップの教師を超えるパフォーマンスを発揮できることが示された。
- 参考スコア(独自算出の注目度): 30.960105413888943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution Matching Distillation (DMD) distills a pre-trained multi-step diffusion model to a few-step one to improve inference efficiency. However, the performance of the latter is often capped by the former. To circumvent this dilemma, we propose DMDR, a novel framework that combines Reinforcement Learning (RL) techniques into the distillation process. We show that for the RL of the few-step generator, the DMD loss itself is a more effective regularization compared to the traditional ones. In turn, RL can help to guide the mode coverage process in DMD more effectively. These allow us to unlock the capacity of the few-step generator by conducting distillation and RL simultaneously. Meanwhile, we design the dynamic distribution guidance and dynamic renoise sampling training strategies to improve the initial distillation process. The experiments demonstrate that DMDR can achieve leading visual quality, prompt coherence among few-step methods, and even exhibit performance that exceeds the multi-step teacher.
- Abstract(参考訳): 分散マッチング蒸留(DMD)は、事前学習した多段階拡散モデルを数段階に蒸留し、推論効率を向上させる。
ただし、後者は前者が演じることが多い。
このジレンマを回避するために,RL(Reinforcement Learning)技術と蒸留プロセスを組み合わせた新しいフレームワークDMDRを提案する。
数ステップのジェネレータのRLでは、MDD損失自体が従来のジェネレータよりも効果的な正規化であることを示す。
逆にRLは、MDDのモードカバレッジプロセスをより効果的にガイドするのに役立ちます。
これにより、蒸留とRLを同時に行うことで、数ステップの発電機の容量を解放することができる。
一方, 蒸留プロセスの改善を目的として, 動的分散指導と動的リノワーズサンプリング訓練戦略を設計する。
実験により、DMDRは目覚しい視覚的品質を達成でき、数ステップの手法間のコヒーレンスを促進でき、多ステップの教師を超えるパフォーマンスを発揮できることを示した。
関連論文リスト
- Phased DMD: Few-step Distribution Matching Distillation via Score Matching within Subintervals [48.14879329270912]
フェーズドDMDは、Mixture-of-Expertsでフェーズワイド蒸留のアイデアを橋渡しする多段階蒸留フレームワークである。
位相MDDはプログレッシブな分布マッチングとサブインターバル内のスコアマッチングという2つの主要なアイデアに基づいて構築されている。
実験結果から,第2相DMDはDMDよりも出力の多様性を保ちつつ,重要な生成能力を保っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-31T17:55:10Z) - Adversarial Distribution Matching for Diffusion Distillation Towards Efficient Image and Video Synthesis [65.77083310980896]
本稿では, 実測値と偽測値の間に潜時予測を整列させる適応分布マッチング (ADM) を提案する。
提案手法は,DMD2と比較してSDXLの1ステップ性能に優れ,GPU時間が少ない。
SD3-Medium, SD3.5-Large, CogVideoX に多段階の ADM 蒸留を適用した実験では, 画像と映像の効率的な合成に向けた新しいベンチマークが設定された。
論文 参考訳(メタデータ) (2025-07-24T16:45:05Z) - DDIL: Diversity Enhancing Diffusion Distillation With Imitation Learning [57.3467234269487]
拡散モデルは生成モデリング(例:text-to-image)に優れるが、サンプリングには複数の遅延ネットワークパスが必要である。
プログレッシブ蒸留や一貫性蒸留は、パスの数を減らして将来性を示す。
DDILの一貫性は, プログレッシブ蒸留 (PD), 潜在整合モデル (LCM) および分散整合蒸留 (DMD2) のベースラインアルゴリズムにより向上することを示した。
論文 参考訳(メタデータ) (2024-10-15T18:21:47Z) - Relational Diffusion Distillation for Efficient Image Generation [27.127061578093674]
拡散モデルの高い遅延は、コンピューティングリソースの少ないエッジデバイスにおいて、その広範な応用を妨げる。
本研究では,拡散モデルの蒸留に適した新しい蒸留法である拡散蒸留(RDD)を提案する。
提案したRDDは, 最先端の蒸留蒸留法と比較すると1.47FID減少し, 256倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-10-10T07:40:51Z) - Unleashing the Power of One-Step Diffusion based Image Super-Resolution via a Large-Scale Diffusion Discriminator [81.81748032199813]
拡散モデルは実世界の超解像(Real-ISR)に優れた性能を示した
SRのための大規模textbfDiscriminator を用いた One-Step textbfDiffusion モデルを提案する。
我々の判別器は、潜伏空間における拡散モデルの任意の時間ステップからノイズのある特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-10-05T16:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。