論文の概要: One-step Diffusion Models with Bregman Density Ratio Matching
- arxiv url: http://arxiv.org/abs/2510.16983v1
- Date: Sun, 19 Oct 2025 20:00:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.233103
- Title: One-step Diffusion Models with Bregman Density Ratio Matching
- Title(参考訳): ブレグマン密度比マッチングを用いた1段階拡散モデル
- Authors: Yuanzhi Zhu, Eleftherios Tsonis, Lucas Degeorge, Vicky Kalogeiton,
- Abstract要約: ディ・ブレグマン(Di-Bregman)は、ブレグマンの発散に基づく密度比マッチングとして拡散蒸留を定式化するコンパクトなフレームワークである。
CIFAR-10およびテキスト・ツー・イメージ生成実験により, 逆KL蒸留による1段階FIDの改善が得られた。
- 参考スコア(独自算出の注目度): 17.651596329331124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion and flow models achieve high generative quality but remain computationally expensive due to slow multi-step sampling. Distillation methods accelerate them by training fast student generators, yet most existing objectives lack a unified theoretical foundation. In this work, we propose Di-Bregman, a compact framework that formulates diffusion distillation as Bregman divergence-based density-ratio matching. This convex-analytic view connects several existing objectives through a common lens. Experiments on CIFAR-10 and text-to-image generation demonstrate that Di-Bregman achieves improved one-step FID over reverse-KL distillation and maintains high visual fidelity compared to the teacher model. Our results highlight Bregman density-ratio matching as a practical and theoretically-grounded route toward efficient one-step diffusion generation.
- Abstract(参考訳): 拡散と流れのモデルは高い生成品質を達成するが、遅い多段階サンプリングのため計算コストは高い。
蒸留法は、高速な学生ジェネレータを訓練することでそれらを加速するが、既存のほとんどの目的には統一された理論基盤が欠如している。
本稿では,拡散蒸留をBregmanの発散に基づく密度比マッチングとして定式化する,コンパクトなフレームワークであるDi-Bregmanを提案する。
この凸解析ビューは、いくつかの既存の目的を共通のレンズを介して接続する。
CIFAR-10およびテキスト・ツー・イメージ生成実験により,Di-Bregmanは逆KL蒸留による一段階FIDの改善を実現し,教師モデルと比較して高い視力を維持した。
この結果から,ブレグマン密度比マッチングは,効率的な1ステップ拡散生成に向けた実用的かつ理論的に確立された経路であることがわかった。
関連論文リスト
- Large Scale Diffusion Distillation via Score-Regularized Continuous-Time Consistency [60.74505433956616]
連続時間一貫性モデル(sCM)は理論的に原理化され、学術規模の拡散を加速するために実証的に強力である。
まず並列性互換なFlashAttention-2 JVPカーネルを開発し、100億以上のパラメータと高次元ビデオタスクを持つモデル上でsCMトレーニングを可能にする。
本稿では, スコア蒸留を長軸正則化器として組み込んだスコア規則化連続時間一貫性モデル(rCM)を提案する。
論文 参考訳(メタデータ) (2025-10-09T16:45:30Z) - Score Distillation of Flow Matching Models [67.86066177182046]
我々は、Score Identity Distillation (SiD) を事前訓練されたテキスト対画像フローマッチングモデルに拡張する。
SiDは、データフリーとデータアシストの両方の設定で、これらのモデルですぐに使える。
これは、スコア蒸留がテキストと画像のフローマッチングモデルに広く適用されるという最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2025-09-29T17:45:48Z) - SCoT: Unifying Consistency Models and Rectified Flows via Straight-Consistent Trajectories [31.60548236936739]
本研究では,事前学習した拡散モデルに対する直線一貫性軌道(SCoT)モデルを提案する。
SCoTは、高速サンプリングのための両方のアプローチの利点を享受し、一貫した特性と直線的な性質のトラジェクトリを同時に生成する。
論文 参考訳(メタデータ) (2025-02-24T08:57:19Z) - Relational Diffusion Distillation for Efficient Image Generation [27.127061578093674]
拡散モデルの高い遅延は、コンピューティングリソースの少ないエッジデバイスにおいて、その広範な応用を妨げる。
本研究では,拡散モデルの蒸留に適した新しい蒸留法である拡散蒸留(RDD)を提案する。
提案したRDDは, 最先端の蒸留蒸留法と比較すると1.47FID減少し, 256倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-10-10T07:40:51Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。