論文の概要: Parallel Sampling of Diffusion Models
- arxiv url: http://arxiv.org/abs/2305.16317v1
- Date: Thu, 25 May 2023 17:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 13:02:11.779441
- Title: Parallel Sampling of Diffusion Models
- Title(参考訳): 拡散モデルの並列サンプリング
- Authors: Andy Shih, Suneel Belkhale, Stefano Ermon, Dorsa Sadigh, Nima Anari
- Abstract要約: 拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
- 参考スコア(独自算出の注目度): 81.9489812855183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models are powerful generative models but suffer from slow
sampling, often taking 1000 sequential denoising steps for one sample. As a
result, considerable efforts have been directed toward reducing the number of
denoising steps, but these methods hurt sample quality. Instead of reducing the
number of denoising steps (trading quality for speed), in this paper we explore
an orthogonal approach: can we run the denoising steps in parallel (trading
compute for speed)? In spite of the sequential nature of the denoising steps,
we show that surprisingly it is possible to parallelize sampling via Picard
iterations, by guessing the solution of future denoising steps and iteratively
refining until convergence. With this insight, we present ParaDiGMS, a novel
method to accelerate the sampling of pretrained diffusion models by denoising
multiple steps in parallel. ParaDiGMS is the first diffusion sampling method
that enables trading compute for speed and is even compatible with existing
fast sampling techniques such as DDIM and DPMSolver. Using ParaDiGMS, we
improve sampling speed by 2-4x across a range of robotics and image generation
models, giving state-of-the-art sampling speeds of 0.2s on 100-step
DiffusionPolicy and 16s on 1000-step StableDiffusion-v2 with no measurable
degradation of task reward, FID score, or CLIP score.
- Abstract(参考訳): 拡散モデルは強力な生成モデルであるが、遅いサンプリングに悩まされ、しばしば1つのサンプルに対して1000のシーケンシャルな復調ステップを踏む。
その結果,デノナイジングステップの削減に向けてかなりの努力が払われているが,これらの手法はサンプルの品質を損なう。
この論文では、デノナイジングステップの数を減少させる代わりに、直交的なアプローチとして、デノナイジングステップを並列に実行できるか(速度のトレーディング計算)を探索する。
分別ステップの逐次的性質にもかかわらず,今後の分別ステップの解を推算し,収束まで反復的に精錬することで,ピカード反復によるサンプリングを驚くほど並列化することができることを示した。
そこで本研究では,複数ステップの並列化により,事前学習した拡散モデルのサンプリングを高速化する新しい手法であるパラダイムを提案する。
ParaDiGMSは、高速な取引計算を可能にする最初の拡散サンプリング手法であり、DDIMやDPMSolverといった既存の高速サンプリング技術と互換性がある。
そこでParaDiGMSを用いて,100ステップのDiffusionPolicyでは0.2秒,1000ステップのStableDiffusion-v2では16秒のサンプリング速度を,タスク報酬,FIDスコア,CLIPスコアの計測不能な2~4倍に改善した。
関連論文リスト
- Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
実験結果から,提案手法は完全精度拡散モデルを直接8ビットまたは4ビットモデルに量子化することができることがわかった。
初めて、4ビットの重みで安定した拡散を実行することができ、知覚的品質を損なうことはない。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Accelerating Guided Diffusion Sampling with Splitting Numerical Methods [8.689906452450938]
近年の手法は, サンプリングプロセスに高次数値法を適用することにより, 無誘導サンプリングを高速化することができる。
本稿では,この問題の原因を考察し,演算子分割法に基づく解を提供する。
提案手法は,高次サンプリング手法を再利用し,250ステップのDDIMベースラインと同じ画質の画像を生成できる。
論文 参考訳(メタデータ) (2023-01-27T06:48:29Z) - ProDiff: Progressive Fast Diffusion Model For High-Quality
Text-to-Speech [63.780196620966905]
本稿では,高品質テキスト合成のためのプログレッシブ高速拡散モデルであるProDiffを提案する。
ProDiffはクリーンデータを直接予測することでデノナイジングモデルをパラメータ化し、サンプリングを高速化する際の品質劣化を回避する。
評価の結果,高忠実度メル-スペクトログラムの合成にProDiffは2回しか要しないことがわかった。
ProDiffは1つのNVIDIA 2080Ti GPU上で、サンプリング速度をリアルタイムより24倍高速にする。
論文 参考訳(メタデータ) (2022-07-13T17:45:43Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Bilateral Denoising Diffusion Models [34.507876199641665]
拡散確率モデル (DDPM) は競合生成モデルとして出現している。
本稿では,高品質なサンプルを生成するためのステップを著しく減らした,新しい二値化拡散モデル(BDDM)を提案する。
論文 参考訳(メタデータ) (2021-08-26T13:23:41Z) - Knowledge Distillation in Iterative Generative Models for Improved
Sampling Speed [0.0]
ノイズ条件スコアネットワークなどの反復生成モデルは、初期雑音ベクトルを徐々にデノベートすることで高品質なサンプルを生成する。
知識蒸留と画像生成の新たな関連性を確立し,多段階の認知過程を単一のステップに蒸留する手法を提案する。
我々のDenoising Studentsは、CIFAR-10とCelebAデータセットのGANに匹敵する高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2021-01-07T06:12:28Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。