論文の概要: Star-Shaped Denoising Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2302.05259v3
- Date: Sat, 28 Oct 2023 21:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:14:51.249732
- Title: Star-Shaped Denoising Diffusion Probabilistic Models
- Title(参考訳): 星型分極拡散確率モデル
- Authors: Andrey Okhotin, Dmitry Molchanov, Vladimir Arkhipkin, Grigory Bartosh,
Viktor Ohanesian, Aibek Alanov, Dmitry Vetrov
- Abstract要約: 星形DDPM(SSDDPM)について紹介する。
実装はhttps://github.com/andreyokhotin/star-shaped.comで公開しています。
- 参考スコア(独自算出の注目度): 5.167803438665587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Denoising Diffusion Probabilistic Models (DDPMs) provide the foundation for
the recent breakthroughs in generative modeling. Their Markovian structure
makes it difficult to define DDPMs with distributions other than Gaussian or
discrete. In this paper, we introduce Star-Shaped DDPM (SS-DDPM). Its
star-shaped diffusion process allows us to bypass the need to define the
transition probabilities or compute posteriors. We establish duality between
star-shaped and specific Markovian diffusions for the exponential family of
distributions and derive efficient algorithms for training and sampling from
SS-DDPMs. In the case of Gaussian distributions, SS-DDPM is equivalent to DDPM.
However, SS-DDPMs provide a simple recipe for designing diffusion models with
distributions such as Beta, von Mises$\unicode{x2013}$Fisher, Dirichlet,
Wishart and others, which can be especially useful when data lies on a
constrained manifold. We evaluate the model in different settings and find it
competitive even on image data, where Beta SS-DDPM achieves results comparable
to a Gaussian DDPM. Our implementation is available at
https://github.com/andrey-okhotin/star-shaped .
- Abstract(参考訳): Denoising Diffusion Probabilistic Models (DDPM)は、最近の生成モデルにおけるブレークスルーの基礎を提供する。
彼らのマルコフ構造は、ガウスあるいは離散性以外の分布を持つ DDPM を定義するのを難しくする。
本稿では,星形DDPM(SS-DDPM)を紹介する。
その星型の拡散過程は、遷移確率の定義や後方計算の必要性を回避できる。
指数分布系に対する星形と特異なマルコフ拡散の双対性を確立し、SS-DDPMのトレーニングとサンプリングに効率的なアルゴリズムを導出する。
ガウス分布の場合、SS-DDPMはDDPMと等価である。
しかし、SS-DDPMは、Beta、von Mises$\unicode{x2013}$Fisher、Dirichlet、Wishartなどの分布を持つ拡散モデルを設計するための簡単なレシピを提供する。
我々は,このモデルを異なる設定で評価し,ベータSS-DDPMがガウスDDPMに匹敵する結果が得られる画像データでも競合することを示した。
私たちの実装はhttps://github.com/andrey-okhotin/star-shaped で利用可能です。
関連論文リスト
- Your Absorbing Discrete Diffusion Secretly Models the Conditional Distributions of Clean Data [55.54827581105283]
本研究では, 吸収拡散の具体的なスコアを, クリーンデータの条件付き確率として表すことができることを示す。
時間に依存しない条件付き確率を特徴付ける時間条件のない専用拡散モデルを提案する。
5つのゼロショット言語モデルベンチマークにおける拡散モデル間のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T04:22:11Z) - Going beyond Compositions, DDPMs Can Produce Zero-Shot Interpolations [54.95457207525101]
Denoising Diffusion Probabilistic Models (DDPM) は画像生成において顕著な能力を示す。
本研究では,データ分布の厳密な部分集合を学習したDDPMについて検討した。
本研究では,そのようなモデルにより,探索されていない中間領域の画像を効果的に生成できることを示す。
論文 参考訳(メタデータ) (2024-05-29T15:41:53Z) - DPM-OT: A New Diffusion Probabilistic Model Based on Optimal Transport [26.713392774427653]
DPM-OTは高速DPMのための統合学習フレームワークであり、直接高速道路はOTマップで表される。
約10の関数評価で高品質なサンプルを生成することができる。
実験は、DPM-OTの有効性と利点を、速度と品質の観点から検証した。
論文 参考訳(メタデータ) (2023-07-21T02:28:54Z) - UDPM: Upsampling Diffusion Probabilistic Models [33.51145642279836]
拡散確率モデル(DDPM、Denoising Diffusion Probabilistic Models)は近年注目されている。
DDPMは逆プロセスを定義することによって複雑なデータ分布から高品質なサンプルを生成する。
生成逆数ネットワーク(GAN)とは異なり、拡散モデルの潜伏空間は解釈できない。
本研究では,デノナイズ拡散過程をUDPM(Upsampling Diffusion Probabilistic Model)に一般化することを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:25:14Z) - Fast Diffusion Probabilistic Model Sampling through the lens of Backward
Error Analysis [26.907301901503835]
拡散確率モデル (DDPM) は強力な生成モデルの一種である。
DDPMは通常、サンプルを生成するために数百から数千の連続関数評価(ステップ)を必要とする。
本稿では,高い試料品質を維持しつつ,ステップの少ないDDPMの高速サンプリング法を開発することを目的とする。
論文 参考訳(メタデータ) (2023-04-22T16:58:47Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。