論文の概要: Diffusion Models Beat GANs on Image Synthesis
- arxiv url: http://arxiv.org/abs/2105.05233v1
- Date: Tue, 11 May 2021 17:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:11:40.299912
- Title: Diffusion Models Beat GANs on Image Synthesis
- Title(参考訳): 画像合成における拡散モデルビートgans
- Authors: Prafulla Dhariwal, Alex Nichol
- Abstract要約: 拡散モデルでは,現在の生成モデルよりも画像サンプルの品質が向上することを示す。
条件付き画像合成では, 分類器の指導により, サンプル品質がさらに向上する。
- 参考スコア(独自算出の注目度): 4.919647298882951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that diffusion models can achieve image sample quality superior to
the current state-of-the-art generative models. We achieve this on
unconditional image synthesis by finding a better architecture through a series
of ablations. For conditional image synthesis, we further improve sample
quality with classifier guidance: a simple, compute-efficient method for
trading off diversity for sample quality using gradients from a classifier. We
achieve an FID of 2.97 on ImageNet $128 \times 128$, 4.59 on ImageNet $256
\times 256$, and $7.72$ on ImageNet $512 \times 512$, and we match BigGAN-deep
even with as few as 25 forward passes per sample, all while maintaining better
coverage of the distribution. Finally, we find that classifier guidance
combines well with upsampling diffusion models, further improving FID to 3.85
on ImageNet $512 \times 512$. We release our code at
https://github.com/openai/guided-diffusion
- Abstract(参考訳): 拡散モデルでは,現在の生成モデルよりも画像サンプルの品質が向上することを示す。
我々は,一連のアブレーションにより,より優れたアーキテクチャを求めることにより,無条件画像合成においてこれを実現する。
条件付き画像合成では、分類器からの勾配を用いて、サンプル品質の多様性をトレードオフする単純で計算効率のよい方法である分類器ガイダンスにより、サンプル品質をさらに改善する。
ImageNet $128 \times 128$, 4.59 on ImageNet $256 \times 256$, and 7.72$ on ImageNet 5,12 \times 512$のFIDを達成しました。
最後に、分類器のガイダンスはアップサンプリング拡散モデルとうまく結合し、ImageNet 512 \times 512$でFIDを3.85に改善する。
コードをhttps://github.com/openai/guided-diffusionでリリースします。
関連論文リスト
- Diffusion Models Need Visual Priors for Image Generation [86.92260591389818]
Diffusion on Diffusion (DoD)は、先述したサンプルから視覚的先行情報を抽出し、拡散モデルのための豊富なガイダンスを提供する革新的な多段階生成フレームワークである。
我々は、人気のあるImageNet-$256 256$データセット上でDoDを評価し、SiTやDiTと比較して7$times$トレーニングコストを削減した。
私たちの最大のモデルであるDoD-XLは、FID-50Kスコアが1.83で、100万のトレーニングステップしか達成していません。
論文 参考訳(メタデータ) (2024-10-11T05:03:56Z) - Guiding a Diffusion Model with a Bad Version of Itself [35.61297232307485]
非条件モデルではなく、より小さく、訓練の少ないモデル自体を用いて、生成を誘導することで、画像品質の変動量を補うことなく、画像品質を制御できることを示す。
これによりImageNetの生成が大幅に改善され、64x64で1.01、公開ネットワークで512x512で1.25のFIDが設定された。
論文 参考訳(メタデータ) (2024-06-04T17:25:59Z) - One-step Diffusion with Distribution Matching Distillation [54.723565605974294]
本稿では,拡散モデルを1ステップ画像生成器に変換する手法である分散マッチング蒸留(DMD)を紹介する。
約KLの発散を最小化することにより,拡散モデルと分布レベルで一致した一段階画像生成装置を強制する。
提案手法は,イメージネット64x64では2.62 FID,ゼロショットCOCO-30kでは11.49 FIDに到達した。
論文 参考訳(メタデータ) (2023-11-30T18:59:20Z) - Synthetic Data from Diffusion Models Improves ImageNet Classification [47.999055841125156]
大規模テキストから画像への拡散モデルは、クラス条件付きモデルを生成するために微調整することができる。
ImageNetトレーニングセットを結果モデルのサンプルで拡張すると、ImageNetの分類精度が大幅に向上する。
論文 参考訳(メタデータ) (2023-04-17T17:42:29Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Analog Bits: Generating Discrete Data using Diffusion Models with
Self-Conditioning [90.02873747873444]
ビット拡散(Bit Diffusion)は、連続拡散モデルを用いて離散データを生成する一般的な手法である。
提案手法は,画像生成タスクと画像キャプションタスクの両方において,高い性能を実現することができる。
MS-COCOデータセットの画像キャプションでは, 自己回帰モデルと比較して, 競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-08-08T15:08:40Z) - Improving Diffusion Model Efficiency Through Patching [0.0]
単純なViTスタイルのパッチ変換を追加することで,拡散モデルのサンプリング時間とメモリ使用量を大幅に削減できることがわかった。
我々は,拡散モデル対象の分析とLSUN教会, ImageNet 256, FFHQ 1024における実証実験を通じてアプローチを正当化する。
論文 参考訳(メタデータ) (2022-07-09T18:21:32Z) - Cascaded Diffusion Models for High Fidelity Image Generation [53.57766722279425]
本研究では,画像ネット生成の課題に対して,カスケード拡散モデルを用いて高忠実度画像を生成可能であることを示す。
カスケード拡散モデルは、解像度が増大する画像を生成する複数の拡散モデルのパイプラインを含む。
その結果,カスケードパイプラインのサンプル品質は,条件付拡張に大きく依存していることがわかった。
論文 参考訳(メタデータ) (2021-05-30T17:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。