論文の概要: PFDiff: Training-free Acceleration of Diffusion Models through the Gradient Guidance of Past and Future
- arxiv url: http://arxiv.org/abs/2408.08822v2
- Date: Wed, 18 Sep 2024 13:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 22:32:32.545878
- Title: PFDiff: Training-free Acceleration of Diffusion Models through the Gradient Guidance of Past and Future
- Title(参考訳): PFDiff:過去と未来のグラディエント誘導による拡散モデルの訓練不要加速
- Authors: Guangyi Wang, Yuren Cai, Lijiang Li, Wei Peng, Songzhi Su,
- Abstract要約: 拡散確率モデル (DPM) は画像生成において顕著な可能性を示しているが, サンプリング効率は多数のデノナイジングステップの必要性によって妨げられている。
我々は、既存の高速ODEソルバを少ないNFEで動作させることができる新しいトレーニングフリーかつタイムステップスキッピング戦略であるPFDiffを提案する。
- 参考スコア(独自算出の注目度): 4.595421654683656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion Probabilistic Models (DPMs) have shown remarkable potential in image generation, but their sampling efficiency is hindered by the need for numerous denoising steps. Most existing solutions accelerate the sampling process by proposing fast ODE solvers. However, the inevitable discretization errors of the ODE solvers are significantly magnified when the number of function evaluations (NFE) is fewer. In this work, we propose PFDiff, a novel training-free and orthogonal timestep-skipping strategy, which enables existing fast ODE solvers to operate with fewer NFE. Specifically, PFDiff initially utilizes gradient replacement from past time steps to predict a "springboard". Subsequently, it employs this "springboard" along with foresight updates inspired by Nesterov momentum to rapidly update current intermediate states. This approach effectively reduces unnecessary NFE while correcting for discretization errors inherent in first-order ODE solvers. Experimental results demonstrate that PFDiff exhibits flexible applicability across various pre-trained DPMs, particularly excelling in conditional DPMs and surpassing previous state-of-the-art training-free methods. For instance, using DDIM as a baseline, we achieved 16.46 FID (4 NFE) compared to 138.81 FID with DDIM on ImageNet 64x64 with classifier guidance, and 13.06 FID (10 NFE) on Stable Diffusion with 7.5 guidance scale.
- Abstract(参考訳): 拡散確率モデル (DPM) は画像生成において顕著な可能性を示しているが, サンプリング効率は多数のデノナイジングステップの必要性によって妨げられている。
既存のほとんどのソリューションは、高速ODEソルバを提案することでサンプリングプロセスを加速する。
しかし、機能評価(NFE)の回数が少ない場合には、ODEソルバの不可避な離散化誤差が大幅に増大する。
本研究では、既存の高速ODEソルバを少ないNFEで動作させる新しいトレーニングフリーで直交時間ステップスキッピング戦略であるPFDiffを提案する。
具体的には、PFDiffは最初、過去の段階からの勾配の置き換えを利用して、"springboard"を予測する。
その後、この "springboard" と、現在の中間状態を迅速に更新するために、Nesterov の運動量にインスパイアされたフォアサイト更新を採用する。
このアプローチは、一階ODEソルバに固有の離散化誤差を補正しながら、不要なNFEを効果的に削減する。
実験の結果, PFDiffは, 各種訓練済みDPM, 特に条件付きDPMに優れ, 従来の最先端のトレーニングフリー手法を超越したフレキシブルな適用性を示した。
例えば, DDIMをベースラインとして用いた場合, ImageNet 64x64 で DDIM が 138.81 FID で DDIM が 16.46 FID (4 NFE) で, 7.5 で 安定拡散で 13.06 FID (10 NFE) を達成できた。
関連論文リスト
- Leveraging Previous Steps: A Training-free Fast Solver for Flow Diffusion [7.3604864243987365]
フロー拡散モデル (FDM) は近年, 高品質のため, 生成タスクの可能性を示唆している。
現在のFDMの常微分方程式(ODE)解法は依然として遅い生成に悩まされている。
高品質な生成を維持しつつ,NFEを低減できる新しいトレーニングフリーフローゾルバを提案する。
論文 参考訳(メタデータ) (2024-11-12T08:17:15Z) - Adversarial Schrödinger Bridge Matching [66.39774923893103]
反復マルコフフィッティング(IMF)手順は、マルコフ過程の相互射影と相互射影を交互に交互に行う。
本稿では、プロセスの学習を離散時間でほんの少しの遷移確率の学習に置き換える新しい離散時間IMF(D-IMF)手順を提案する。
D-IMFの手続きは、数百ではなく数世代のステップで、IMFと同じ品質の未完成のドメイン翻訳を提供できることを示す。
論文 参考訳(メタデータ) (2024-05-23T11:29:33Z) - DPM-Solver-v3: Improved Diffusion ODE Solver with Empirical Model
Statistics [23.030972042695275]
拡散モデル(DPM)は、非効率サンプリングに悩まされながら、高忠実度画像生成に優れた性能を示した。
最近の研究は、DPMの特定のODE形式を利用する高速ODEソルバを提案することでサンプリング手順を加速している。
本稿では,1次離散化誤差を最小限に抑えるため,サンプリング中の最適パラメータ化に向けた新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-10-20T04:23:12Z) - Towards More Accurate Diffusion Model Acceleration with A Timestep
Aligner [84.97253871387028]
数千のデノナイジングステップを用いて画像を生成するために定式化された拡散モデルは通常、遅い推論速度に悩まされる。
最小限のコストで特定の区間に対するより正確な積分方向を見つけるのに役立つ時間ステップ整合器を提案する。
実験により,我々のプラグイン設計を効率的に訓練し,様々な最先端加速度法の推論性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-10-14T02:19:07Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models [103.41269503488546]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Improved Techniques for Maximum Likelihood Estimation for Diffusion ODEs [21.08236758778604]
拡散ODEの最大誤差推定のためのいくつかの改良手法を提案する。
トレーニングのために,速度パラメータ化を提案し,より高速な収束のための分散低減手法を探索する。
評価のために,拡散 ODE に存在する訓練・評価のギャップを埋めるために,新しい訓練自由トラクト正規化法を提案する。
論文 参考訳(メタデータ) (2023-05-06T05:21:24Z) - On Accelerating Diffusion-Based Sampling Process via Improved
Integration Approximation [12.882586878998579]
拡散に基づく生成モデルをサンプリングする一般的なアプローチは、常微分方程式(ODE)を解くことである。
改良された積分近似(IIA)を用いて特定の係数を最適化することにより、人気のあるODEベースのサンプリングプロセスの高速化を検討する。
また,IIA-EDM,IIA-DDIM,IIA-DPM-rを用いて,FIDスコアを従来よりも大幅に向上できることが示唆された。
論文 参考訳(メタデータ) (2023-04-22T06:06:28Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。