論文の概要: Accelerating Guided Diffusion Sampling with Splitting Numerical Methods
- arxiv url: http://arxiv.org/abs/2301.11558v1
- Date: Fri, 27 Jan 2023 06:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:11:47.131115
- Title: Accelerating Guided Diffusion Sampling with Splitting Numerical Methods
- Title(参考訳): 分割数値手法による誘導拡散サンプリングの高速化
- Authors: Suttisak Wizadwongsa, Supasorn Suwajanakorn
- Abstract要約: 近年の手法は, サンプリングプロセスに高次数値法を適用することにより, 無誘導サンプリングを高速化することができる。
本稿では,この問題の原因を考察し,演算子分割法に基づく解を提供する。
提案手法は,高次サンプリング手法を再利用し,250ステップのDDIMベースラインと同じ画質の画像を生成できる。
- 参考スコア(独自算出の注目度): 8.689906452450938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Guided diffusion is a technique for conditioning the output of a diffusion
model at sampling time without retraining the network for each specific task.
One drawback of diffusion models, however, is their slow sampling process.
Recent techniques can accelerate unguided sampling by applying high-order
numerical methods to the sampling process when viewed as differential
equations. On the contrary, we discover that the same techniques do not work
for guided sampling, and little has been explored about its acceleration. This
paper explores the culprit of this problem and provides a solution based on
operator splitting methods, motivated by our key finding that classical
high-order numerical methods are unsuitable for the conditional function. Our
proposed method can re-utilize the high-order methods for guided sampling and
can generate images with the same quality as a 250-step DDIM baseline using
32-58% less sampling time on ImageNet256. We also demonstrate usage on a wide
variety of conditional generation tasks, such as text-to-image generation,
colorization, inpainting, and super-resolution.
- Abstract(参考訳): 誘導拡散は、特定のタスク毎にネットワークを再トレーニングすることなく、サンプリング時に拡散モデルの出力を条件付ける手法である。
しかし拡散モデルの欠点は、その遅いサンプリングプロセスである。
最近の手法では, 微分方程式として見なす場合, 高次数値手法をサンプリングプロセスに適用することにより, 非誘導サンプリングを高速化できる。
それとは対照的に,同じ手法が誘導サンプリングに役立たず,その加速についてはほとんど研究されていない。
本稿では,この問題の原因を考察し,古典高階数値法が条件関数に不適当であることを示す鍵となる,演算子分割法に基づく解を提供する。
提案手法では,画像Net256のサンプリング時間を32~58%削減して,250ステップのDDIMベースラインと同程度の画質で画像を生成することができる。
また,テキスト・ツー・イメージ生成,カラー化,インペインティング,超解像化など,さまざまな条件生成タスクの利用例を示す。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - A Simple Early Exiting Framework for Accelerated Sampling in Diffusion Models [14.859580045688487]
拡散モデルの現実的なボトルネックはサンプリング速度である。
スコア推定に必要な計算を適応的に割り当てる新しいフレームワークを提案する。
本研究では,画像品質を損なうことなく,拡散モデルのサンプリングスループットを大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-08-12T05:33:45Z) - Fast Samplers for Inverse Problems in Iterative Refinement Models [19.099632445326826]
逆問題に対する効率的なサンプル作成のためのプラグイン・アンド・プレイフレームワークを提案する。
提案手法は,5段階の条件付きサンプリングステップで高品質なサンプルを生成でき,20~1000段の基準ラインよりも優れる。
論文 参考訳(メタデータ) (2024-05-27T21:50:16Z) - Accelerating Parallel Sampling of Diffusion Models [25.347710690711562]
自己回帰過程を並列化することにより拡散モデルのサンプリングを高速化する新しい手法を提案する。
これらの手法を適用したParaTAAは、普遍的でトレーニング不要な並列サンプリングアルゴリズムである。
実験により、ParaTAAは一般的なシーケンシャルサンプリングアルゴリズムで要求される推論ステップを4$sim$14倍に削減できることを示した。
論文 参考訳(メタデータ) (2024-02-15T14:27:58Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。