論文の概要: Truncated Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2202.09671v1
- Date: Sat, 19 Feb 2022 20:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 16:13:51.531319
- Title: Truncated Diffusion Probabilistic Models
- Title(参考訳): 断続拡散確率モデル
- Authors: Huangjie Zheng, Pengcheng He, Weizhu Chen, Mingyuan Zhou
- Abstract要約: 拡散確率モデルは、前方拡散過程を反転させるために逆マルコフ拡散連鎖を推論することにより、データを生成する方法を学ぶ。
本稿では, ランダムノイズに対するデータ要求を廃止し, 前方拡散チェーンを切断することを提案する。
提案手法は, 生成性能と所要の逆拡散ステップ数の観点から, 非乱拡散確率モデルに対して一貫した改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 84.3235981545673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Employing a forward Markov diffusion chain to gradually map the data to a
noise distribution, diffusion probabilistic models learn how to generate the
data by inferring a reverse Markov diffusion chain to invert the forward
diffusion process. To achieve competitive data generation performance, they
demand a long diffusion chain that makes them computationally intensive in not
only training but also generation. To significantly improve the computation
efficiency, we propose to truncate the forward diffusion chain by abolishing
the requirement of diffusing the data to random noise. Consequently, we start
the inverse diffusion chain from an implicit generative distribution, rather
than random noise, and learn its parameters by matching it to the distribution
of the data corrupted by the truncated forward diffusion chain. Experimental
results show our truncated diffusion probabilistic models provide consistent
improvements over the non-truncated ones in terms of the generation performance
and the number of required inverse diffusion steps.
- Abstract(参考訳): フォワードマルコフ拡散チェーンを用いて、データを徐々にノイズ分布にマッピングし、拡散確率モデルは、逆マルコフ拡散チェーンを推論してデータを生成する方法を学び、フォワード拡散過程を反転させる。
競争力のあるデータ生成性能を得るためには、トレーニングだけでなく生成にも計算集約的な長い拡散チェーンが必要である。
計算効率を著しく向上させるため,データのランダムノイズへの拡散の要件を廃止し,前方拡散チェーンの廃止を提案する。
その結果、ランダムノイズではなく暗黙の生成分布から逆拡散連鎖を開始し、そのパラメータを切断された前方拡散連鎖によって破損したデータの分布と整合させることで学習する。
実験結果から, 減少拡散確率モデルは, 生成性能および必要な逆拡散ステップ数の観点から, 非停止拡散確率モデルに対して一貫した改善をもたらすことがわかった。
関連論文リスト
- Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Diffusion Models with Deterministic Normalizing Flow Priors [23.212848643552395]
フローと拡散モデルを正規化する手法であるDiNof(textbfDi$ffusion with $textbfNo$rmalizing $textbff$low priors)を提案する。
標準画像生成データセットの実験は、既存の手法よりも提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-09-03T21:26:56Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Data Augmentation for Seizure Prediction with Generative Diffusion Model [26.967247641926814]
重症度予測は患者の生活改善に非常に重要である。
初期データと中間データの間の深刻な不均衡問題は、依然として大きな課題となっている。
データ拡張は、この問題を解決するための直感的な方法です。
DiffEEGと呼ばれる拡散モデルを用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T05:44:53Z) - UDPM: Upsampling Diffusion Probabilistic Models [33.51145642279836]
拡散確率モデル(DDPM、Denoising Diffusion Probabilistic Models)は近年注目されている。
DDPMは逆プロセスを定義することによって複雑なデータ分布から高品質なサンプルを生成する。
生成逆数ネットワーク(GAN)とは異なり、拡散モデルの潜伏空間は解釈できない。
本研究では,デノナイズ拡散過程をUDPM(Upsampling Diffusion Probabilistic Model)に一般化することを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:25:14Z) - To smooth a cloud or to pin it down: Guarantees and Insights on Score Matching in Denoising Diffusion Models [20.315727650065007]
微分拡散モデル(Denoising diffusion model)は、最近多くの領域で最先端の結果を得た生成モデルのクラスである。
我々は、F"ollmer flow"に似た既知の接続を利用して、F"ollmer drift"の確立されたニューラルネットワーク近似結果を拡張し、拡散モデルとサンプリング器をデノナイズする。
論文 参考訳(メタデータ) (2023-05-16T16:56:19Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。