論文の概要: Diffusion Dataset Condensation: Training Your Diffusion Model Faster with Less Data
- arxiv url: http://arxiv.org/abs/2507.05914v1
- Date: Tue, 08 Jul 2025 12:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.028923
- Title: Diffusion Dataset Condensation: Training Your Diffusion Model Faster with Less Data
- Title(参考訳): 拡散データセットの凝縮:少ないデータで拡散モデルをより速く訓練する
- Authors: Rui Huang, Shitong Shao, Zikai Zhou, Pukun Zhao, Hangyu Guo, Tian Ye, Lichen Bai, Shuo Yang, Zeke Xie,
- Abstract要約: 拡散データセットの凝縮を新しい問題設定として研究する。
目標は、元のデータセットよりもはるかに少ないサンプルを持つ"合成"サブデータセットを構築することだ。
我々のフレームワークは、高い視覚的品質を維持しながら、劇的に少ないデータで非常に高速な拡散モデルトレーニングを可能にします。
- 参考スコア(独自算出の注目度): 18.21207020440108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved remarkable success in various generative tasks, but training them remains highly resource-intensive, often requiring millions of images and many days of GPU computation. From a data-centric perspective addressing this limitation, we study diffusion dataset condensation as a new and challenging problem setting. The goal is to construct a "synthetic" sub-dataset with significantly fewer samples than the original dataset, enabling high-quality diffusion model training with greatly reduced cost. To the best of our knowledge, we are the first to formally investigate dataset condensation for diffusion models, whereas prior work focused on training discriminative models. To tackle this new challenge, we propose a novel Diffusion Dataset Condensation (D2C) framework, which consists of two phases: Select and Attach. The Select phase identifies a compact and diverse subset using a diffusion difficulty score and interval sampling. The Attach phase enhances the selected subset by attaching rich semantic and visual representations to strengthen the conditional signals. Extensive experiments across various dataset sizes, model architectures, and resolutions show that our D2C framework enables significantly faster diffusion model training with dramatically fewer data, while preserving high visual quality. Notably, for the SiT-XL/2 architecture, D2C achieves a 100x training speed-up, reaching a FID score of 4.3 in just 40k steps using only 0.8% of the training data.
- Abstract(参考訳): 拡散モデルは、様々な生成タスクにおいて顕著な成功を収めてきたが、トレーニングは依然として非常にリソース集約であり、数百万の画像と数日間のGPU計算を必要としている。
この制限に対処するデータ中心の観点から、拡散データセットの凝縮を新しい課題として研究する。
目標は、元のデータセットよりもはるかに少ないサンプルで"合成"サブデータセットを構築することで、コストを大幅に削減して高品質な拡散モデルトレーニングを可能にすることである。
我々の知る限り、私たちは拡散モデルのデータセット凝縮を公式に調査する最初の人であり、以前の研究は差別モデルを訓練することに焦点を当てていた。
この新たな課題に対処するために、Select と Attach の2つのフェーズからなる新しい拡散データセット凝縮(D2C)フレームワークを提案する。
Select相は拡散困難スコアと間隔サンプリングを用いてコンパクトで多様なサブセットを特定する。
Attachフェーズは、条件信号を強化するために、リッチなセマンティックとビジュアル表現をアタッチすることで、選択されたサブセットを強化する。
さまざまなデータセットサイズ、モデルアーキテクチャ、解像度にわたる大規模な実験により、私たちのD2Cフレームワークは、非常に少ないデータで大幅に高速な拡散モデルトレーニングを可能にし、高い視覚的品質を保ちます。
特に、SiT-XL/2アーキテクチャでは、D2Cは100倍のトレーニングスピードアップを達成し、トレーニングデータのわずか0.8%を使用して、わずか40kステップでFIDスコアが4.3に達する。
関連論文リスト
- Diffusion-Augmented Coreset Expansion for Scalable Dataset Distillation [18.474302012851087]
そこで本研究では,データセット蒸留のための2段階の解法を提案する。
まず、最も情報性の高いパッチのみを選択して、コアセットを形成することでデータセットを圧縮する。
次に、この圧縮された集合をリアルタイムで動的に拡張するために、生成基礎モデルを活用する。
いくつかの大規模データセット蒸留ベンチマークでは,最先端技術と比較して10%以上の顕著な改善がみられた。
論文 参考訳(メタデータ) (2024-12-05T23:40:27Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - DiffusionSeg: Adapting Diffusion Towards Unsupervised Object Discovery [20.787180028571694]
DiffusionSegは、2段階戦略を含む合成探索フレームワークである。
我々は,豊富な画像を合成し,第1段階でマスクを得るための新しいトレーニングフリーアテンションカットを提案する。
第2のエクスプロイト段階では、構造的ギャップを埋めるために、インバージョン技術を用いて、与えられた画像を拡散特徴にマッピングする。
論文 参考訳(メタデータ) (2023-03-17T07:47:55Z) - Accelerating Dataset Distillation via Model Augmentation [41.3027484667024]
本研究では,初期モデルとパラメータを用いた2つのモデル拡張手法を提案し,学習コストを大幅に削減した情報合成集合を学習する。
提案手法は,最先端の手法と同等の性能で,最大20倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-12-12T07:36:05Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。