論文の概要: Applying Guidance in a Limited Interval Improves Sample and Distribution Quality in Diffusion Models
- arxiv url: http://arxiv.org/abs/2404.07724v2
- Date: Wed, 06 Nov 2024 14:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:21:52.030600
- Title: Applying Guidance in a Limited Interval Improves Sample and Distribution Quality in Diffusion Models
- Title(参考訳): 限定区間における誘導の適用は拡散モデルにおけるサンプルおよび分布品質を改善する
- Authors: Tuomas Kynkäänniemi, Miika Aittala, Tero Karras, Samuli Laine, Timo Aila, Jaakko Lehtinen,
- Abstract要約: チェーンの開始に対して、ガイダンスが明らかに有害であることを示します。
これにより、特定のノイズレベルに制限し、推論速度と結果品質の両方を改善します。
- 参考スコア(独自算出の注目度): 35.61297232307485
- License:
- Abstract: Guidance is a crucial technique for extracting the best performance out of image-generating diffusion models. Traditionally, a constant guidance weight has been applied throughout the sampling chain of an image. We show that guidance is clearly harmful toward the beginning of the chain (high noise levels), largely unnecessary toward the end (low noise levels), and only beneficial in the middle. We thus restrict it to a specific range of noise levels, improving both the inference speed and result quality. This limited guidance interval improves the record FID in ImageNet-512 significantly, from 1.81 to 1.40. We show that it is quantitatively and qualitatively beneficial across different sampler parameters, network architectures, and datasets, including the large-scale setting of Stable Diffusion XL. We thus suggest exposing the guidance interval as a hyperparameter in all diffusion models that use guidance.
- Abstract(参考訳): 誘導は画像生成拡散モデルから最高の性能を抽出するための重要な手法である。
従来、画像のサンプリングチェーン全体にわたって一定の誘導重みが適用されてきた。
チェーンの開始(高騒音レベル)、終了(低騒音レベル)、中間(低騒音レベル)に対して明らかに有害であり、かつ、中程度でのみ有益であることを示す。
これにより、特定のノイズレベルに制限し、推論速度と結果品質の両方を改善します。
この限定的な誘導間隔は ImageNet-512 の FID を 1.81 から 1.40 に大幅に改善する。
安定拡散XLの大規模設定を含む,異なるサンプルパラメータ,ネットワークアーキテクチャ,データセットに対して定量的かつ定性的に有用であることを示す。
そこで本研究では,誘導を用いたすべての拡散モデルにおいて,誘導間隔をハイパーパラメータとして公開することを提案する。
関連論文リスト
- Latent Denoising Diffusion GAN: Faster sampling, Higher image quality [0.0]
Latent Denoising Diffusion GANは、トレーニング済みのオートエンコーダを使用して、画像をコンパクトなLatent空間に圧縮する。
従来のDiffusionGANやWavelet Diffusionと比較して,評価指標の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-06-17T16:32:23Z) - Deep Reward Supervisions for Tuning Text-to-Image Diffusion Models [42.28905346604424]
Deep Reward Tuning (DRTune) はテキストから画像への拡散モデルの最終的な出力画像を監督するアルゴリズムである。
DRTuneは、特に低レベル制御信号において、他のアルゴリズムよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-05-01T15:26:14Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - CADS: Unleashing the Diversity of Diffusion Models through Condition-Annealed Sampling [27.795088366122297]
Condition-Annealed Diffusion Sampler (CADS) は任意の事前学習モデルとサンプリングアルゴリズムで使用することができる。
本研究では,様々な条件生成タスクにおける拡散モデルの多様性を向上することを示す。
論文 参考訳(メタデータ) (2023-10-26T12:27:56Z) - Towards More Accurate Diffusion Model Acceleration with A Timestep
Aligner [84.97253871387028]
数千のデノナイジングステップを用いて画像を生成するために定式化された拡散モデルは通常、遅い推論速度に悩まされる。
最小限のコストで特定の区間に対するより正確な積分方向を見つけるのに役立つ時間ステップ整合器を提案する。
実験により,我々のプラグイン設計を効率的に訓練し,様々な最先端加速度法の推論性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-10-14T02:19:07Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Cascaded Diffusion Models for High Fidelity Image Generation [53.57766722279425]
本研究では,画像ネット生成の課題に対して,カスケード拡散モデルを用いて高忠実度画像を生成可能であることを示す。
カスケード拡散モデルは、解像度が増大する画像を生成する複数の拡散モデルのパイプラインを含む。
その結果,カスケードパイプラインのサンプル品質は,条件付拡張に大きく依存していることがわかった。
論文 参考訳(メタデータ) (2021-05-30T17:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。