論文の概要: Few-Step Distillation for Text-to-Image Generation: A Practical Guide
- arxiv url: http://arxiv.org/abs/2512.13006v1
- Date: Mon, 15 Dec 2025 05:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.549728
- Title: Few-Step Distillation for Text-to-Image Generation: A Practical Guide
- Title(参考訳): テキスト・トゥ・イメージ・ジェネレーションのためのFew-Step Distillation : 実践的ガイド
- Authors: Yifan Pu, Yizeng Han, Zhiwei Tang, Jiasheng Tang, Fan Wang, Bohan Zhuang, Gao Huang,
- Abstract要約: 拡散蒸留はクラス条件画像合成を劇的に加速させたが、T2I生成への適用性はまだ不明である。
本稿では,T2I 教師モデル FLUX.1-lite を用いて,最先端の蒸留技術を適用し,比較する最初の体系的研究について述べる。
- 参考スコア(独自算出の注目度): 60.99392100471019
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Diffusion distillation has dramatically accelerated class-conditional image synthesis, but its applicability to open-ended text-to-image (T2I) generation is still unclear. We present the first systematic study that adapts and compares state-of-the-art distillation techniques on a strong T2I teacher model, FLUX.1-lite. By casting existing methods into a unified framework, we identify the key obstacles that arise when moving from discrete class labels to free-form language prompts. Beyond a thorough methodological analysis, we offer practical guidelines on input scaling, network architecture, and hyperparameters, accompanied by an open-source implementation and pretrained student models. Our findings establish a solid foundation for deploying fast, high-fidelity, and resource-efficient diffusion generators in real-world T2I applications. Code is available on github.com/alibaba-damo-academy/T2I-Distill.
- Abstract(参考訳): 拡散蒸留はクラス条件画像合成を劇的に加速させたが、T2I生成への適用性はまだ不明である。
本稿では,T2I 教師モデル FLUX.1-lite を用いて,最先端の蒸留技術を適用し,比較する最初の体系的研究について述べる。
既存のメソッドを統一されたフレームワークにキャストすることで、個別のクラスラベルから自由形式の言語プロンプトに移行する際に生じる重要な障害を特定する。
徹底的な方法論分析の他に、インプットスケーリング、ネットワークアーキテクチャ、ハイパーパラメータに関する実践的ガイドラインや、オープンソース実装と事前訓練された学生モデルも提供します。
実世界のT2Iアプリケーションに高速・高忠実・資源効率の拡散発生器を配置するための基盤を確立した。
コードはgithub.com/alibaba-damo-academy/T2I-Distillで入手できる。
関連論文リスト
- PRISM: Precision-Recall Informed Data-Free Knowledge Distillation via Generative Diffusion [4.591973713524844]
データフリーな知識蒸留(DFKD)は、実際のIDデータにアクセスせずに教師から生徒に知識を伝達する。
既存の手法は小規模な画像ではよく機能するが、大規模な画像の合成ではモード崩壊に悩まされる。
PRISMは,光写実画像の合成のための高精度リコール情報化手法である。
論文 参考訳(メタデータ) (2025-09-21T03:16:07Z) - AcT2I: Evaluating and Improving Action Depiction in Text-to-Image Models [58.85362281293525]
本稿では、アクション中心のプロンプトから画像を生成する際のT2Iモデルの性能を評価するためのベンチマークであるAcT2Iを紹介する。
我々は、先行するT2IモデルがAcT2Iにうまく対応していないことを実験的に検証した。
我々は,この制限に対処するために,大規模言語モデルを用いた訓練不要の知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2025-09-19T16:41:39Z) - TeEFusion: Blending Text Embeddings to Distill Classifier-Free Guidance [23.375320072698297]
テキスト埋め込みに誘導の大きさを直接組み込む,新規で効率的な蒸留法TeEFusionを紹介する。
本手法により, 生徒はよりシンプルで効率的なサンプリング戦略で, 教師のパフォーマンスを忠実に模倣することができる。
推論速度は教師モデルよりも最大6$times$速いが、教師の複雑なサンプリングアプローチで得られたものと同等のレベルの画像品質を維持している。
論文 参考訳(メタデータ) (2025-07-24T08:45:40Z) - DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - ERNIE-Search: Bridging Cross-Encoder with Dual-Encoder via Self
On-the-fly Distillation for Dense Passage Retrieval [54.54667085792404]
両エンコーダのクロスアーキテクチャ蒸留を著しく向上させる新しい蒸留法を提案する。
本手法は,バニラ二重エンコーダへの遅延相互作用(ColBERT)を効果的に蒸留できる自己オンザフライ蒸留法を導入し,また,クロスエンコーダの教師による性能向上のためにカスケード蒸留プロセスを導入している。
論文 参考訳(メタデータ) (2022-05-18T18:05:13Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。