論文の概要: Fast Diffusion Model
- arxiv url: http://arxiv.org/abs/2306.06991v2
- Date: Wed, 4 Oct 2023 09:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 18:45:41.940404
- Title: Fast Diffusion Model
- Title(参考訳): 高速拡散モデル
- Authors: Zike Wu, Pan Zhou, Kenji Kawaguchi, Hanwang Zhang
- Abstract要約: 拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
- 参考スコア(独自算出の注目度): 122.36693015093041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) have been adopted across diverse fields with its
remarkable abilities in capturing intricate data distributions. In this paper,
we propose a Fast Diffusion Model (FDM) to significantly speed up DMs from a
stochastic optimization perspective for both faster training and sampling. We
first find that the diffusion process of DMs accords with the stochastic
optimization process of stochastic gradient descent (SGD) on a stochastic
time-variant problem. Then, inspired by momentum SGD that uses both gradient
and an extra momentum to achieve faster and more stable convergence than SGD,
we integrate momentum into the diffusion process of DMs. This comes with a
unique challenge of deriving the noise perturbation kernel from the
momentum-based diffusion process. To this end, we frame the process as a Damped
Oscillation system whose critically damped state -- the kernel solution --
avoids oscillation and yields a faster convergence speed of the diffusion
process. Empirical results show that our FDM can be applied to several popular
DM frameworks, e.g., VP, VE, and EDM, and reduces their training cost by about
50% with comparable image synthesis performance on CIFAR-10, FFHQ, and AFHQv2
datasets. Moreover, FDM decreases their sampling steps by about 3x to achieve
similar performance under the same samplers. The code is available at
https://github.com/sail-sg/FDM.
- Abstract(参考訳): 拡散モデル (DM) は, 複雑なデータ分布を捉える際, 様々な分野に応用されている。
本稿では,高速トレーニングとサンプリングの両面において,確率的最適化の観点からDMを著しく高速化する高速拡散モデルを提案する。
まず,dmsの拡散過程は確率的勾配降下(sgd)の確率的最適化過程と一致することを見出した。
次に、勾配と余剰運動量の両方を用いてSGDよりも高速でより安定な収束を実現する運動量SGDに着想を得て、DMの拡散過程に運動量を統合する。
これは運動量に基づく拡散過程からノイズ摂動核を導出するというユニークな挑戦が伴う。
この目的のために、我々はこの過程を、核溶液である臨界減衰状態が振動を回避し、拡散過程のより速い収束速度をもたらすダンプ振動系として構成する。
実証的な結果から,当社のfdmは,vp,ve,edmなど,いくつかの人気dmフレームワークに適用可能であり,cifar-10,ffhq,afhqv2データセットで比較可能な画像合成性能で,トレーニングコストを約50%削減できることがわかった。
さらに、FDMはサンプリング工程を約3倍に減らし、同じサンプリング装置で同様の性能を実現する。
コードはhttps://github.com/sail-sg/fdmで入手できる。
関連論文リスト
- Taming Diffusion Prior for Image Super-Resolution with Domain Shift SDEs [30.973473583364832]
DoSSRは、事前訓練された拡散モデルの生成力を生かしたドメインシフト拡散に基づくSRモデルである。
このアプローチの核となるのは、既存の拡散モデルとシームレスに統合されるドメインシフト方程式です。
提案手法は, 合成および実世界のデータセットに対して, 5つのサンプリングステップしか必要とせず, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-26T12:16:11Z) - Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Alleviating Exposure Bias in Diffusion Models through Sampling with Shifted Time Steps [23.144083737873263]
拡散確率モデル (DPM) は高品質な画像の合成において顕著な有効性を示した。
これまでの研究は、トレーニング中に入力を摂動することでこの問題を緩和しようと試みてきた。
モデルを再学習することなく,提案する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T21:39:27Z) - Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions [22.04182099405728]
拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-02-14T18:57:04Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Come-Closer-Diffuse-Faster: Accelerating Conditional Diffusion Models
for Inverse Problems through Stochastic Contraction [31.61199061999173]
拡散モデルには重要な欠点がある。純粋なガウスノイズから画像を生成するために数千ステップの反復を必要とするため、サンプリングが本質的に遅い。
ガウスノイズから始めることは不要であることを示す。代わりに、より優れた初期化を伴う単一前方拡散から始めると、逆条件拡散におけるサンプリングステップの数を大幅に減少させる。
ComeCloser-DiffuseFaster (CCDF)と呼ばれる新しいサンプリング戦略は、逆問題に対する既存のフィードフォワードニューラルネットワークアプローチが拡散モデルと相乗的に組み合わせられる方法について、新たな洞察を明らかにしている。
論文 参考訳(メタデータ) (2021-12-09T04:28:41Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。