論文の概要: Speed up the inference of diffusion models via shortcut MCMC sampling
- arxiv url: http://arxiv.org/abs/2301.01206v1
- Date: Sun, 18 Dec 2022 07:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 07:26:11.130895
- Title: Speed up the inference of diffusion models via shortcut MCMC sampling
- Title(参考訳): ショートカットMCMCサンプリングによる拡散モデル推定の高速化
- Authors: Gang Chen
- Abstract要約: 拡散確率モデルは最近、高品質な画像合成を生み出している。
1つの問題点は、何千ものステップで徐々に鮮明な画像を得る悪名高い推測である。
本稿では,学習と推論のバランスを保ちながら,生成したデータの質を維持しながら,MCMCサンプリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.982806898121435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Diffusion probabilistic models have generated high quality image synthesis
recently. However, one pain point is the notorious inference to gradually
obtain clear images with thousands of steps, which is time consuming compared
to other generative models. In this paper, we present a shortcut MCMC sampling
algorithm, which balances training and inference, while keeping the generated
data's quality. In particular, we add the global fidelity constraint with
shortcut MCMC sampling to combat the local fitting from diffusion models. We do
some initial experiments and show very promising results. Our implementation is
available at https://github.com//vividitytech/diffusion-mcmc.git.
- Abstract(参考訳): 拡散確率モデルは最近高品質な画像合成を生み出している。
しかし、ある痛点は、何千ものステップで徐々に鮮明な画像を得るという悪名高い推論であり、他の生成モデルと比べて時間を要する。
本稿では,生成されたデータの品質を維持しつつ,トレーニングと推論のバランスをとるショートカットMCMCサンプリングアルゴリズムを提案する。
特に,拡散モデルから局所的なフィッティングに対処するために,MCMCサンプリングによる大域的忠実度制約を加える。
いくつかの実験を行い、非常に有望な結果を示します。
私たちの実装はhttps://github.com//vividitytech/diffusion-mcmc.gitで利用可能です。
関連論文リスト
- ElasticDiffusion: Training-free Arbitrary Size Image Generation [16.923002028395985]
ElasticDiffusionは、事前訓練されたテキストと画像の拡散モデルが様々なサイズで画像を生成することができる、トレーニング不要のデコード手法である。
実験と定性的な結果から,マルチディフュージョンと安定ディフュージョンの標準デコード戦略と比較して,アスペクト比における画像コヒーレンス品質が優れていた。
論文 参考訳(メタデータ) (2023-11-30T18:58:17Z) - Latent Consistency Models: Synthesizing High-Resolution Images with
Few-Step Inference [60.32804641276217]
本稿では,LCM(Latent Consistency Models)を提案する。
高品質の768 x 768 24-step LCMは、トレーニングに32A100 GPU時間しかかからない。
また,画像データセットの微調整に適した新しいLCM法であるLCF(Latent Consistency Fine-tuning)についても紹介する。
論文 参考訳(メタデータ) (2023-10-06T17:11:58Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory
of Diffusion [58.50423084652587]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - Denoising MCMC for Accelerating Diffusion-Based Generative Models [54.06799491319278]
拡散モデルは、スコア関数を用いて拡散過程の逆をシミュレートし、ノイズからデータを合成する強力な生成モデルである。
本稿では,スコアベースサンプリングを高速化するアプローチを提案する。
DMCMC のインスタンスである Denoising Langevin Gibbs (DLG) が6つの逆S/ODE 計算タスクの高速化に成功していることを示す。
論文 参考訳(メタデータ) (2022-09-29T07:16:10Z) - Analog Bits: Generating Discrete Data using Diffusion Models with
Self-Conditioning [90.02873747873444]
ビット拡散(Bit Diffusion)は、連続拡散モデルを用いて離散データを生成する一般的な手法である。
提案手法は,画像生成タスクと画像キャプションタスクの両方において,高い性能を実現することができる。
MS-COCOデータセットの画像キャプションでは, 自己回帰モデルと比較して, 競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-08-08T15:08:40Z) - Improving Diffusion Model Efficiency Through Patching [0.0]
単純なViTスタイルのパッチ変換を追加することで,拡散モデルのサンプリング時間とメモリ使用量を大幅に削減できることがわかった。
我々は,拡散モデル対象の分析とLSUN教会, ImageNet 256, FFHQ 1024における実証実験を通じてアプローチを正当化する。
論文 参考訳(メタデータ) (2022-07-09T18:21:32Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。