論文の概要: Score Distillation of Flow Matching Models
- arxiv url: http://arxiv.org/abs/2509.25127v1
- Date: Mon, 29 Sep 2025 17:45:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.179669
- Title: Score Distillation of Flow Matching Models
- Title(参考訳): フローマッチングモデルのスコア蒸留
- Authors: Mingyuan Zhou, Yi Gu, Huangjie Zheng, Liangchen Song, Guande He, Yizhe Zhang, Wenze Hu, Yinfei Yang,
- Abstract要約: 我々は、Score Identity Distillation (SiD) を事前訓練されたテキスト対画像フローマッチングモデルに拡張する。
SiDは、データフリーとデータアシストの両方の設定で、これらのモデルですぐに使える。
これは、スコア蒸留がテキストと画像のフローマッチングモデルに広く適用されるという最初の体系的な証拠を提供する。
- 参考スコア(独自算出の注目度): 67.86066177182046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models achieve high-quality image generation but are limited by slow iterative sampling. Distillation methods alleviate this by enabling one- or few-step generation. Flow matching, originally introduced as a distinct framework, has since been shown to be theoretically equivalent to diffusion under Gaussian assumptions, raising the question of whether distillation techniques such as score distillation transfer directly. We provide a simple derivation -- based on Bayes' rule and conditional expectations -- that unifies Gaussian diffusion and flow matching without relying on ODE/SDE formulations. Building on this view, we extend Score identity Distillation (SiD) to pretrained text-to-image flow-matching models, including SANA, SD3-Medium, SD3.5-Medium/Large, and FLUX.1-dev, all with DiT backbones. Experiments show that, with only modest flow-matching- and DiT-specific adjustments, SiD works out of the box across these models, in both data-free and data-aided settings, without requiring teacher finetuning or architectural changes. This provides the first systematic evidence that score distillation applies broadly to text-to-image flow matching models, resolving prior concerns about stability and soundness and unifying acceleration techniques across diffusion- and flow-based generators. We will make the PyTorch implementation publicly available.
- Abstract(参考訳): 拡散モデルは高品質な画像生成を実現するが、遅い反復サンプリングによって制限される。
蒸留法は、これを1段階または数段階の生成によって緩和する。
当初、異なる枠組みとして導入されたフローマッチングは、ガウス的な仮定の下での拡散と理論的に等価であることが示され、スコア蒸留などの蒸留技術を直接的に導入するかどうかという疑問が提起された。
我々は、 ODE/SDE の定式化に頼ることなく、ガウス拡散とフローマッチングを統一する単純な導出(ベイズの規則と条件付き期待に基づく)を提供する。
このビューに基づいて、SANA、SD3-Medium、SD3.5-Medium/Large、FLUX.1-devといった事前訓練されたテキスト間フローマッチングモデルにSiD(Score Identity Distillation)を拡張する。
実験によると、フローマッチングとDiT固有の調整だけで、SiDは教師の微調整やアーキテクチャの変更を必要とせず、データフリーとデータアシストの両方の設定で、これらのモデルにまたがって機能する。
これは、スコア蒸留がテキストと画像のフローマッチングモデルに広く適用され、安定性と音質に関する事前の懸念を解消し、拡散およびフローベースジェネレータ間の加速技術を統一する最初の体系的な証拠である。
PyTorchの実装を公開します。
関連論文リスト
- Universal Inverse Distillation for Matching Models with Real-Data Supervision (No GANs) [63.681263056053666]
提案するRealUIDは,GANを使わずに実データを蒸留プロセスにシームレスに組み込む,全てのマッチングモデルのための汎用蒸留フレームワークである。
我々のRealUIDアプローチは、フローマッチングと拡散モデルに対する以前の蒸留方法をカバーする単純な理論基盤を提供し、ブリッジマッチングや補間といった修正にも拡張されている。
論文 参考訳(メタデータ) (2025-09-26T15:12:02Z) - Flow map matching with stochastic interpolants: A mathematical framework for consistency models [15.520853806024943]
フローマップマッチングは、基礎となる生成モデルの2時間フローマップを学ぶための原則化されたフレームワークである。
FMMは,高速サンプリングのための既存手法の幅広いクラスを統一し,拡張することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。