論文の概要: Domain Guidance: A Simple Transfer Approach for a Pre-trained Diffusion Model
- arxiv url: http://arxiv.org/abs/2504.01521v1
- Date: Wed, 02 Apr 2025 09:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:38.327895
- Title: Domain Guidance: A Simple Transfer Approach for a Pre-trained Diffusion Model
- Title(参考訳): ドメインガイダンス: 事前学習した拡散モデルに対する簡単な伝達アプローチ
- Authors: Jincheng Zhong, Xiangcheng Zhang, Jianmin Wang, Mingsheng Long,
- Abstract要約: ドメインガイダンス(Domain Guidance)は、トレーニング済みの知識を活用して、サンプリングプロセスを対象のドメインに誘導する移行アプローチである。
FIDは19.6%改善し、FD$_textDINOv2$は23.4%改善した。
- 参考スコア(独自算出の注目度): 62.11981915549919
- License:
- Abstract: Recent advancements in diffusion models have revolutionized generative modeling. However, the impressive and vivid outputs they produce often come at the cost of significant model scaling and increased computational demands. Consequently, building personalized diffusion models based on off-the-shelf models has emerged as an appealing alternative. In this paper, we introduce a novel perspective on conditional generation for transferring a pre-trained model. From this viewpoint, we propose *Domain Guidance*, a straightforward transfer approach that leverages pre-trained knowledge to guide the sampling process toward the target domain. Domain Guidance shares a formulation similar to advanced classifier-free guidance, facilitating better domain alignment and higher-quality generations. We provide both empirical and theoretical analyses of the mechanisms behind Domain Guidance. Our experimental results demonstrate its substantial effectiveness across various transfer benchmarks, achieving over a 19.6% improvement in FID and a 23.4% improvement in FD$_\text{DINOv2}$ compared to standard fine-tuning. Notably, existing fine-tuned models can seamlessly integrate Domain Guidance to leverage these benefits, without additional training.
- Abstract(参考訳): 拡散モデルの最近の進歩は、生成モデルに革命をもたらした。
しかし、それらが生み出す印象的で鮮明な出力は、しばしば重要なモデルのスケーリングと計算要求の増加のコストがかかる。
その結果、市販モデルに基づくパーソナライズされた拡散モデルの構築が、魅力的な代替手段として浮上した。
本稿では,事前学習モデル転送のための条件生成に関する新しい視点を紹介する。
この観点から,事前学習した知識を活用して,対象領域へのサンプリングプロセスの誘導を行う,簡単な転送手法である*ドメインガイダンス*を提案する。
ドメインガイダンス(Domain Guidance)は、高度な分類器なしのガイダンスと同じような定式化を共有し、ドメインアライメントの改善と高品質な世代化を促進する。
ドメインガイダンスの背景にあるメカニズムを実証的および理論的に分析する。
実験の結果,FIDが19.6%向上し,FD$_\text{DINOv2}$が23.4%向上した。
特に、既存の微調整モデルでは、追加のトレーニングなしでドメインガイダンスをシームレスに統合してこれらの利点を活用できる。
関連論文リスト
- Variational Control for Guidance in Diffusion Models [19.51536406897083]
本稿では,DTM(Diffusion Trajectory Matching)を提案する。
DTMは幅広いガイダンス手法を統一し、新しいインスタンス化を可能にする。
例えば、ImageNetの非線形デブロアリングにおいて、我々のモデルはFIDスコア34.31を達成し、最高の事前訓練されたベースライン(FID 78.07)よりも大幅に改善した。
論文 参考訳(メタデータ) (2025-02-06T00:24:39Z) - Domain Generalization Guided by Large-Scale Pre-Trained Priors [24.74398777539288]
ドメイン一般化(DG)は、限られたソースドメインからモデルをトレーニングすることを目的としており、未知のターゲットドメインに一般化することができる。
大規模事前訓練型ファインチューン(FT-LP)について紹介する。
FT-LPは、事前訓練されたモデルをDG微調整プロセスに前もって組み込んで、各最適化ステップで事前訓練されたモデルを参照することを保証する。
論文 参考訳(メタデータ) (2024-06-09T03:32:32Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Transfer Learning for Diffusion Models [43.10840361752551]
拡散モデルは高品質な合成サンプルを一貫して生成する。
コレクションコストや関連するリスクのため、現実のアプリケーションでは実用的ではありません。
本稿では,従来の微調整法や正規化法とは異なる新しいアプローチであるTransfer Guided Diffusion Process (TGDP)を紹介する。
論文 参考訳(メタデータ) (2024-05-27T06:48:58Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Elucidating The Design Space of Classifier-Guided Diffusion Generation [17.704873767509557]
そこで本研究では,市販の分類器をトレーニング不要の手法で活用することにより,既存の指導方式よりも大幅な性能向上を実現することができることを示す。
提案手法は大きな可能性を秘めており,テキスト・画像生成タスクに容易にスケールアップできる。
論文 参考訳(メタデータ) (2023-10-17T14:34:58Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。