論文の概要: Uni-DAD: Unified Distillation and Adaptation of Diffusion Models for Few-step Few-shot Image Generation
- arxiv url: http://arxiv.org/abs/2511.18281v1
- Date: Sun, 23 Nov 2025 04:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.743593
- Title: Uni-DAD: Unified Distillation and Adaptation of Diffusion Models for Few-step Few-shot Image Generation
- Title(参考訳): Uni-DAD:Few-step Few-shot画像生成のための拡散モデルの統一蒸留と適応
- Authors: Yara Bahram, Melodie Desbos, Mohammadhadi Shateri, Eric Granger,
- Abstract要約: 拡散モデル(DM)は高品質な画像を生成するが、新しい領域への適応にはコストがかかる。
蒸留とDMの適応を統一する単一段パイプラインであるUni-DADを紹介する。
Uni-DADは4段階未満のサンプリングステップでも、最先端(SoTA)適応手法よりも高い品質を提供する。
- 参考スコア(独自算出の注目度): 15.325030504689416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models (DMs) produce high-quality images, yet their sampling remains costly when adapted to new domains. Distilled DMs are faster but typically remain confined within their teacher's domain. Thus, fast and high-quality generation for novel domains relies on two-stage training pipelines: Adapt-then-Distill or Distill-then-Adapt. However, both add design complexity and suffer from degraded quality or diversity. We introduce Uni-DAD, a single-stage pipeline that unifies distillation and adaptation of DMs. It couples two signals during training: (i) a dual-domain distribution-matching distillation objective that guides the student toward the distributions of the source teacher and a target teacher, and (ii) a multi-head generative adversarial network (GAN) loss that encourages target realism across multiple feature scales. The source domain distillation preserves diverse source knowledge, while the multi-head GAN stabilizes training and reduces overfitting, especially in few-shot regimes. The inclusion of a target teacher facilitates adaptation to more structurally distant domains. We perform evaluations on a variety of datasets for few-shot image generation (FSIG) and subject-driven personalization (SDP). Uni-DAD delivers higher quality than state-of-the-art (SoTA) adaptation methods even with less than 4 sampling steps, and outperforms two-stage training pipelines in both quality and diversity.
- Abstract(参考訳): 拡散モデル(DM)は高品質な画像を生成するが、新しい領域への適応にはコストがかかる。
蒸留DMは速いが、通常は教師の領域に限られる。
したがって、新しいドメインの高速かつ高品質な生成は、Adapt-then-DistillまたはDistill-then-Adaptという2段階のトレーニングパイプラインに依存している。
しかし、どちらも設計の複雑さを増し、品質や多様性の低下に悩まされる。
蒸留とDMの適応を統一する単一段パイプラインであるUni-DADを紹介する。
訓練中に2つの信号が合わさる。
一 原教師及び対象教師の配当を指導する二重領域配当蒸留目標
(II)複数の特徴尺度にまたがるターゲットリアリズムを促進するマルチヘッド生成対向ネットワーク(GAN)損失。
ソースドメイン蒸留は様々なソース知識を保存し、マルチヘッドGANはトレーニングを安定させ、特に数発のレギュレーションにおいて過度な適合を減少させる。
対象の教師を含めることで、より構造的に離れた領域への適応が容易になる。
我々は,小ショット画像生成(FSIG)と主観的パーソナライゼーション(SDP)のための様々なデータセットの評価を行う。
Uni-DADは、4段階未満のサンプリングステップでも最先端(SoTA)適応手法よりも高品質で、品質と多様性の両方で2段階のトレーニングパイプラインより優れています。
関連論文リスト
- Few-Step Diffusion via Score identity Distillation [67.07985339442703]
拡散蒸留は, テキスト・ツー・イメージ(T2I)拡散モデルを促進するための有望な戦略として浮上している。
既存の方法は、高分解能T2I拡散モデルを蒸留する際に、実像や教師合成画像に頼っている。
教師のCFGを無効にし、偽スコアネットワークでテキストコンディショニングを除去するZero-CFGと、偽スコアネットワークで否定的なCFGを適用するAnti-CFGの2つの新しいガイダンス戦略を提案する。
論文 参考訳(メタデータ) (2025-05-19T03:45:16Z) - DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - Supercharged One-step Text-to-Image Diffusion Models with Negative Prompts [19.609393551644562]
負のプロンプトを1段階拡散モデルに統合する効率的な方法である textbfNegative-textbfAway textbfSteer textbfAttention (NASA) を導入する。
NASAは、望ましくない視覚特性を抑えるためにクロスアテンション機構を活用することで、中間表現空間内で運用している。
論文 参考訳(メタデータ) (2024-12-03T18:56:32Z) - DDIL: Diversity Enhancing Diffusion Distillation With Imitation Learning [57.3467234269487]
拡散モデルは生成モデリング(例:text-to-image)に優れるが、サンプリングには複数の遅延ネットワークパスが必要である。
プログレッシブ蒸留や一貫性蒸留は、パスの数を減らして将来性を示す。
DDILの一貫性は, プログレッシブ蒸留 (PD), 潜在整合モデル (LCM) および分散整合蒸留 (DMD2) のベースラインアルゴリズムにより向上することを示した。
論文 参考訳(メタデータ) (2024-10-15T18:21:47Z) - Improved Distribution Matching Distillation for Fast Image Synthesis [54.72356560597428]
この制限を解除し、MDDトレーニングを改善する一連の技術であるMDD2を紹介する。
まず、回帰損失と高価なデータセット構築の必要性を排除します。
第2に, GAN損失を蒸留工程に統合し, 生成した試料と実画像との識別を行う。
論文 参考訳(メタデータ) (2024-05-23T17:59:49Z) - Phasic Content Fusing Diffusion Model with Directional Distribution
Consistency for Few-Shot Model Adaption [73.98706049140098]
本稿では,方向分布の整合性を損なう少数ショット拡散モデルを用いた新しいファシックコンテンツを提案する。
具体的には、ファシックコンテンツ融合を用いたファシックトレーニング戦略を設計し、tが大きければ、モデルがコンテンツやスタイル情報を学ぶのに役立てる。
最後に、ドメイン適応時の構造整合性を高めるクロスドメイン構造ガイダンス戦略を提案する。
論文 参考訳(メタデータ) (2023-09-07T14:14:11Z) - Few-shot Image Generation with Diffusion Models [18.532357455856836]
拡散確率モデル(DDPM)は、大量のデータに基づいて訓練された際に、顕著な多様性で高品質な画像を合成できることが証明されている。
現代のアプローチは、主にGAN(Generative Adversarial Networks)とAdapted Model(Adapted Model)に基づいて構築されている。
本稿では, DDPMが過度に適合し, トレーニングデータが不足するにつれて, 高度に多様性が低下する事例について検討する。
論文 参考訳(メタデータ) (2022-11-07T02:18:27Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - A Closer Look at Few-shot Image Generation [38.83570296616384]
訓練済みのGANを小さなターゲットデータで転送する場合、ジェネレータはトレーニングサンプルを複製する傾向がある。
この数ショットの画像生成に対処するいくつかの方法が提案されているが、それらを統一されたフレームワークで分析する努力が不足している。
適応中に既存の手法を解析するためのフレームワークを提案する。
第2のコントリビューションは、ソースドメインのリッチなマルチレベル多様性情報をターゲットドメインジェネレータに保持するために、相互情報(MI)を適用することを提案する。
論文 参考訳(メタデータ) (2022-05-08T07:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。