論文の概要: When Model Knowledge meets Diffusion Model: Diffusion-assisted Data-free Image Synthesis with Alignment of Domain and Class
- arxiv url: http://arxiv.org/abs/2506.15381v1
- Date: Wed, 18 Jun 2025 11:51:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.647752
- Title: When Model Knowledge meets Diffusion Model: Diffusion-assisted Data-free Image Synthesis with Alignment of Domain and Class
- Title(参考訳): 拡散モデルに一致するモデル知識:ドメインとクラスをアライメントした拡散支援データ自由画像合成
- Authors: Yujin Kim, Hyunsoo Kim, Hyunwoo J. Kim, Suhyun Kim,
- Abstract要約: オープンソースで事前トレーニングされたモデルは、多様なアプリケーションにとって大きな可能性を秘めているが、トレーニングデータが利用できない場合には、その実用性は低下する。
データ自由画像合成(DFIS)は、学習済みモデルの学習データ分布を元のデータにアクセスすることなく近似した画像を生成することを目的としている。
DDISはDiffusion-assisted Data-free Image Synthesis法として,テキストから画像への拡散モデルを利用した最初の画像合成法である。
- 参考スコア(独自算出の注目度): 18.81528537866941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-source pre-trained models hold great potential for diverse applications, but their utility declines when their training data is unavailable. Data-Free Image Synthesis (DFIS) aims to generate images that approximate the learned data distribution of a pre-trained model without accessing the original data. However, existing DFIS meth ods produce samples that deviate from the training data distribution due to the lack of prior knowl edge about natural images. To overcome this limitation, we propose DDIS, the first Diffusion-assisted Data-free Image Synthesis method that leverages a text-to-image diffusion model as a powerful image prior, improving synthetic image quality. DDIS extracts knowledge about the learned distribution from the given model and uses it to guide the diffusion model, enabling the generation of images that accurately align with the training data distribution. To achieve this, we introduce Domain Alignment Guidance (DAG) that aligns the synthetic data domain with the training data domain during the diffusion sampling process. Furthermore, we optimize a single Class Alignment Token (CAT) embedding to effectively capture class-specific attributes in the training dataset. Experiments on PACS and Ima geNet demonstrate that DDIS outperforms prior DFIS methods by generating samples that better reflect the training data distribution, achieving SOTA performance in data-free applications.
- Abstract(参考訳): オープンソースで事前トレーニングされたモデルは、多様なアプリケーションにとって大きな可能性を秘めているが、トレーニングデータが利用できない場合には、その実用性は低下する。
データ自由画像合成(DFIS)は、学習済みモデルの学習データ分布を元のデータにアクセスすることなく近似した画像を生成することを目的としている。
しかし、既存のDFISメトオドは、自然画像に関する事前の知識がないため、トレーニングデータ分布から逸脱するサンプルを生成する。
この制限を克服するために,テキストから画像への拡散モデルを利用したDiffusion-assisted Data-free Image Synthesis法DDISを提案する。
DDISは、与えられたモデルから学習した分布に関する知識を抽出し、拡散モデルを誘導し、トレーニングデータ分布と正確に一致した画像の生成を可能にする。
そこで本研究では,拡散サンプリングプロセスにおいて,合成データ領域とトレーニングデータ領域を整合させるDAG(Domain Alignment Guidance)を導入する。
さらに、トレーニングデータセット内のクラス固有の属性を効果的にキャプチャするために、単一のクラスアライメントトークン(CAT)埋め込みを最適化する。
PACSとIma geNetの実験では、DDISは、トレーニングデータ分布をより良く反映したサンプルを生成し、データフリーアプリケーションでSOTA性能を達成することで、DFISメソッドよりも優れた性能を示す。
関連論文リスト
- Pruning then Reweighting: Towards Data-Efficient Training of Diffusion Models [33.09663675904689]
データセットプルーニングの観点から,効率的な拡散訓練について検討する。
GAN(Generative Adversarial Network)のような生成モデルに対するデータ効率トレーニングの原則に着想を得て、まず、GANで使用されるデータ選択スキームをDMトレーニングに拡張する。
生成性能をさらに向上するため,クラスワイド・リウェイト方式を採用する。
論文 参考訳(メタデータ) (2024-09-27T20:21:19Z) - Integrating Amortized Inference with Diffusion Models for Learning Clean Distribution from Corrupted Images [19.957503854446735]
拡散モデル(DM)は、逆問題を解決するための強力な生成モデルとして登場した。
FlowDiffは条件付き正規化フローモデルを利用して、破損したデータソース上で拡散モデルのトレーニングを容易にする共同トレーニングパラダイムである。
実験の結果,FlowDiffは広範囲の破損したデータソースにわたるクリーンな分布を効果的に学習できることがわかった。
論文 参考訳(メタデータ) (2024-07-15T18:33:20Z) - DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Source-Free Domain Adaptation with Diffusion-Guided Source Data Generation [6.087274577167399]
本稿では、ソースフリードメイン適応(DM-SFDA)のための拡散モデルの一般化可能性を活用する新しいアプローチを提案する。
提案するDMSFDA法では,事前学習したテキスト・画像拡散モデルを微調整し,ソース・ドメイン・イメージを生成する。
私たちは、Office-31、Office-Home、VisDAなど、さまざまなデータセットにわたる包括的な実験を通じて、このアプローチを検証する。
論文 参考訳(メタデータ) (2024-02-07T14:56:13Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Unbiased Image Synthesis via Manifold Guidance in Diffusion Models [9.531220208352252]
拡散モデルは、しばしば必然的に特定のデータ属性を好ましくし、生成された画像の多様性を損なう。
我々は,DDPMにおけるバイアス問題を緩和する最初の教師なし手法であるManifold Smpling Guidanceというプラグアンドプレイ手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T02:03:17Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。