論文の概要: Exploring the Optimal Choice for Generative Processes in Diffusion
Models: Ordinary vs Stochastic Differential Equations
- arxiv url: http://arxiv.org/abs/2306.02063v1
- Date: Sat, 3 Jun 2023 09:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:24:40.845550
- Title: Exploring the Optimal Choice for Generative Processes in Diffusion
Models: Ordinary vs Stochastic Differential Equations
- Title(参考訳): 拡散モデルにおける生成過程の最適選択:正規対確率微分方程式
- Authors: Yu Cao, Jingrun Chen, Yixin Luo, Xiang Zhou
- Abstract要約: 拡散モデルはコンピュータビジョンにおいて顕著な成功を収めた。
ODEベースの確率フローとSDEベースの拡散モデルが優れているかは定かではない。
- 参考スコア(独自算出の注目度): 5.324089862054424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The diffusion model has shown remarkable success in computer vision, but it
remains unclear whether ODE-based probability flow or SDE-based diffusion
models are superior and under what circumstances. Comparing the two is
challenging due to dependencies on data distribution, score training, and other
numerical factors. In this paper, we examine the problem mathematically by
examining two limiting scenarios: the ODE case and the large diffusion case. We
first introduce a pulse-shape error to perturb the score function and analyze
error accumulation, with a generalization to arbitrary error. Our findings
indicate that when the perturbation occurs at the end of the generative
process, the ODE model outperforms the SDE model (with a large diffusion
coefficient). However, when the perturbation occurs earlier, the SDE model
outperforms the ODE model, and we demonstrate that the error of sample
generation due to pulse-shape error can be exponentially suppressed as the
diffusion term's magnitude increases to infinity. Numerical validation of this
phenomenon is provided using toy models such as Gaussian, Gaussian mixture
models, and Swiss roll. Finally, we experiment with MNIST and observe that
varying the diffusion coefficient can improve sample quality even when the
score function is not well trained.
- Abstract(参考訳): 拡散モデルはコンピュータビジョンにおいて顕著な成功を収めてきたが、ODEベースの確率フローやSDEベースの拡散モデルの方が優れているか、どのような状況下かは定かではない。
この2つを比較するのは、データ分散、スコアトレーニング、その他の数値的要因に依存するため、難しい。
本稿では,ODEの場合と大きな拡散の場合の2つの制限シナリオを数学的に検討する。
まず、スコア関数を摂動させ、任意の誤差に一般化した誤差蓄積を分析するパルス型誤差を導入する。
その結果, 生成過程の終端に摂動が発生すると, ODEモデルはSDEモデルより優れ(拡散係数が大きい)ことが示唆された。
しかし、より早く摂動が発生した場合、SDEモデルはODEモデルより優れ、拡散項の大きさが無限大になるにつれて、パルス形状誤差によるサンプル生成の誤差を指数関数的に抑制できることを示す。
この現象の数値検証は、ガウシアン、ガウシアン混合モデル、スイスロールのようなおもちゃモデルを用いて行われる。
最後に,mnistを用いて実験を行い,スコア関数が十分に訓練されていない場合でも,拡散係数の変動がサンプル品質を向上させることを確かめた。
関連論文リスト
- Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors [0.0]
拡散モデルやスコアベースモデルでは画像生成の性能が向上した。
本研究では,データ分布がガウス的である場合の拡散モデルの挙動とその数値的実装について理論的に検討する。
論文 参考訳(メタデータ) (2024-05-23T07:28:56Z) - Risk-Sensitive Diffusion: Robustly Optimizing Diffusion Models with Noisy Samples [58.68233326265417]
非画像データは実際のアプリケーションで広く使われており、ノイズが多い傾向にある。
リスク感受性SDEは、リスクベクトルによってパラメータ化された微分方程式(SDE)の一種である。
我々はガウス雑音分布と非ガウス雑音分布の両方について系統的研究を行う。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Eliminating Lipschitz Singularities in Diffusion Models [51.806899946775076]
拡散モデルは、時間ステップの零点付近で無限のリプシッツをしばしば表すことを示す。
これは、積分演算に依存する拡散過程の安定性と精度に脅威をもたらす。
我々はE-TSDMと呼ばれる新しい手法を提案し、これは0に近い拡散モデルのリプシッツを除去する。
論文 参考訳(メタデータ) (2023-06-20T03:05:28Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Denoising Diffusion Samplers [41.796349001299156]
拡散モデルの認知は、多くの領域で最先端の結果を提供する生成モデルの一般的なクラスである。
我々は、非正規化確率密度関数から大まかにサンプリングし、それらの正規化定数を推定する類似のアイデアを探求する。
この文脈ではスコアマッチングは適用できないが、モンテカルロサンプリングのために生成的モデリングで導入された多くのアイデアを利用することができる。
論文 参考訳(メタデータ) (2023-02-27T14:37:16Z) - Diffusion Normalizing Flow [4.94950858749529]
本稿では微分方程式(SDE)に基づく拡散正規化フローという新しい生成モデルを提案する。
このアルゴリズムは、2つのニューラルSDEで構成されており、データに徐々にノイズを加えてガウスランダムノイズに変換するフォワードSDEと、データ分布からサンプルへのノイズを徐々に除去する後方SDEである。
提案アルゴリズムは,高次元データ密度推定と画像生成の両タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2021-10-14T17:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。