論文の概要: Fast Diffusion Model
- arxiv url: http://arxiv.org/abs/2306.06991v1
- Date: Mon, 12 Jun 2023 09:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:07:45.566890
- Title: Fast Diffusion Model
- Title(参考訳): 高速拡散モデル
- Authors: Zike Wu, Pan Zhou, Kenji Kawaguchi, Hanwang Zhang
- Abstract要約: 高速拡散モデル(FDM)は最適化の観点からDMの拡散過程を改善する。
運動量に基づくプロセスは、減衰振動系として構成する。
その結果,FDMはいくつかの一般的なDMフレームワークに適用可能であることがわかった。
- 参考スコア(独自算出の注目度): 106.06520238433109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their success in real data synthesis, diffusion models (DMs) often
suffer from slow and costly training and sampling issues, limiting their
broader applications. To mitigate this, we propose a Fast Diffusion Model (FDM)
which improves the diffusion process of DMs from a stochastic optimization
perspective to speed up both training and sampling. Specifically, we first find
that the diffusion process of DMs accords with the stochastic optimization
process of stochastic gradient descent (SGD) on a stochastic time-variant
problem. Note that momentum SGD uses both the current gradient and an extra
momentum, achieving more stable and faster convergence. We are inspired to
introduce momentum into the diffusion process to accelerate both training and
sampling. However, this comes with the challenge of deriving the noise
perturbation kernel from the momentum-based diffusion process. To this end, we
frame the momentum-based process as a Damped Oscillation system whose
critically damped state -- the kernel solution -- avoids oscillation and thus
has a faster convergence speed of the diffusion process. Empirical results show
that our FDM can be applied to several popular DM frameworks, e.g. VP, VE, and
EDM, and reduces their training cost by about 50% with comparable image
synthesis performance on CIFAR-10, FFHQ, and AFHQv2 datasets. Moreover, FDM
decreases their sampling steps by about $3\times$ to achieve similar
performance under the same deterministic samplers. The code is available at
https://github.com/sail-sg/FDM.
- Abstract(参考訳): 実際のデータ合成の成功にもかかわらず、拡散モデル(DM)は、しばしば遅くてコストのかかるトレーニングとサンプリングの問題に悩まされ、より広範なアプリケーションを制限する。
そこで本研究では,dmsの拡散過程を確率的最適化の観点から改善し,トレーニングとサンプリングの両方を高速化する高速拡散モデル(fdm)を提案する。
具体的には, DMの拡散過程が確率的勾配降下(SGD)の確率的最適化過程と, 確率的時間変動問題において一致することを最初に見出した。
運動量sgdは現在の勾配と余分な運動量の両方を使い、より安定してより高速に収束する。
我々は,トレーニングとサンプリングの両方を加速するために,拡散過程に運動量を導入することに着想を得た。
しかし、これは運動量に基づく拡散過程から雑音摂動核を導出するという課題に付随する。
この目的のために、運動量に基づく過程を、臨界減衰状態(カーネル溶液)が振動を回避し、拡散過程のより高速な収束速度を持つダンプ振動系として構成する。
経験的な結果から,当社のfdmはvp,ve,edmなどいくつかの人気dmフレームワークに適用可能であり,cifar-10,ffhq,afhqv2データセットで比較可能な画像合成性能で,トレーニングコストを約50%削減できることがわかった。
さらに、FDMはサンプリングステップを約$3\times$に減らし、同様の性能を同じ決定論的サンプリングで達成する。
コードはhttps://github.com/sail-sg/fdmで入手できる。
関連論文リスト
- Taming Diffusion Prior for Image Super-Resolution with Domain Shift SDEs [30.973473583364832]
DoSSRは、事前訓練された拡散モデルの生成力を生かしたドメインシフト拡散に基づくSRモデルである。
このアプローチの核となるのは、既存の拡散モデルとシームレスに統合されるドメインシフト方程式です。
提案手法は, 合成および実世界のデータセットに対して, 5つのサンプリングステップしか必要とせず, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-26T12:16:11Z) - Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Alleviating Exposure Bias in Diffusion Models through Sampling with Shifted Time Steps [23.144083737873263]
拡散確率モデル (DPM) は高品質な画像の合成において顕著な有効性を示した。
これまでの研究は、トレーニング中に入力を摂動することでこの問題を緩和しようと試みてきた。
モデルを再学習することなく,提案する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T21:39:27Z) - Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions [22.04182099405728]
拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-02-14T18:57:04Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Come-Closer-Diffuse-Faster: Accelerating Conditional Diffusion Models
for Inverse Problems through Stochastic Contraction [31.61199061999173]
拡散モデルには重要な欠点がある。純粋なガウスノイズから画像を生成するために数千ステップの反復を必要とするため、サンプリングが本質的に遅い。
ガウスノイズから始めることは不要であることを示す。代わりに、より優れた初期化を伴う単一前方拡散から始めると、逆条件拡散におけるサンプリングステップの数を大幅に減少させる。
ComeCloser-DiffuseFaster (CCDF)と呼ばれる新しいサンプリング戦略は、逆問題に対する既存のフィードフォワードニューラルネットワークアプローチが拡散モデルと相乗的に組み合わせられる方法について、新たな洞察を明らかにしている。
論文 参考訳(メタデータ) (2021-12-09T04:28:41Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。