論文の概要: Alleviating Exposure Bias in Diffusion Models through Sampling with
Shifted Time Steps
- arxiv url: http://arxiv.org/abs/2305.15583v2
- Date: Fri, 26 May 2023 08:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 10:42:09.633513
- Title: Alleviating Exposure Bias in Diffusion Models through Sampling with
Shifted Time Steps
- Title(参考訳): 時間ステップシフトサンプリングによる拡散モデルにおける露光バイアスの緩和
- Authors: Mingxiao Li, Tingyu Qu, Wei Sun, Marie-Francine Moens
- Abstract要約: 拡散確率モデル (DDPM) は高品質な画像の合成において顕著な有効性を示した。
時間シフトサンプリングという推論手法を提案する。
我々のフレームワークは既存のサンプリングアルゴリズムとシームレスに統合できる。
- 参考スコア(独自算出の注目度): 16.58404171472771
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Denoising Diffusion Probabilistic Models (DDPM) have shown remarkable
efficacy in the synthesis of high-quality images. However, their inference
process characteristically requires numerous, potentially hundreds, of
iterative steps, which could lead to the problem of exposure bias due to the
accumulation of prediction errors over iterations. Previous work has attempted
to mitigate this issue by perturbing inputs during training, which consequently
mandates the retraining of the DDPM. In this work, we conduct a systematic
study of exposure bias in diffusion models and, intriguingly, we find that the
exposure bias could be alleviated with a new sampling method, without
retraining the model. We empirically and theoretically show that, during
inference, for each backward time step $t$ and corresponding state $\hat{x}_t$,
there might exist another time step $t_s$ which exhibits superior coupling with
$\hat{x}_t$. Based on this finding, we introduce an inference method named
Time-Shift Sampler. Our framework can be seamlessly integrated with existing
sampling algorithms, such as DDIM or DDPM, inducing merely minimal additional
computations. Experimental results show that our proposed framework can
effectively enhance the quality of images generated by existing sampling
algorithms.
- Abstract(参考訳): Denoising Diffusion Probabilistic Models (DDPM) は高品質な画像の合成において顕著な効果を示した。
しかし、それらの推論プロセスは、多くの、潜在的に数百の反復的なステップを必要とするため、反復による予測エラーの蓄積による露光バイアスの問題につながる可能性がある。
これまでの研究では、トレーニング中に入力を摂動させることでこの問題を緩和しようと試みており、DDPMの再訓練が義務付けられている。
本研究では,拡散モデルにおける露光バイアスの体系的研究を行い,興味深いことに,モデルの再トレーニングを行わずに,新しいサンプリング法で露光バイアスを軽減できることを示す。
我々は、推論において、各後方時間ステップ $t$ と対応する状態 $\hat{x}_t$ に対して、$\hat{x}_t$ との優れた結合を示す別の時間ステップ $t_s$ が存在することを実証的に理論的に示す。
そこで本研究では,時間シフトサンプリングという推論手法を提案する。
我々のフレームワークはDDIMやDDPMといった既存のサンプリングアルゴリズムとシームレスに統合でき、最小限の追加計算を誘導できる。
実験の結果,提案手法は既存のサンプリングアルゴリズムで生成した画像の品質を効果的に向上できることがわかった。
関連論文リスト
- DPM-OT: A New Diffusion Probabilistic Model Based on Optimal Transport [26.713392774427653]
DPM-OTは高速DPMのための統合学習フレームワークであり、直接高速道路はOTマップで表される。
約10の関数評価で高品質なサンプルを生成することができる。
実験は、DPM-OTの有効性と利点を、速度と品質の観点から検証した。
論文 参考訳(メタデータ) (2023-07-21T02:28:54Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - UDPM: Upsampling Diffusion Probabilistic Models [33.51145642279836]
拡散確率モデル(DDPM、Denoising Diffusion Probabilistic Models)は近年注目されている。
DDPMは逆プロセスを定義することによって複雑なデータ分布から高品質なサンプルを生成する。
生成逆数ネットワーク(GAN)とは異なり、拡散モデルの潜伏空間は解釈できない。
本研究では,デノナイズ拡散過程をUDPM(Upsampling Diffusion Probabilistic Model)に一般化することを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:25:14Z) - Fast Diffusion Probabilistic Model Sampling through the lens of Backward
Error Analysis [26.907301901503835]
拡散確率モデル (DDPM) は強力な生成モデルの一種である。
DDPMは通常、サンプルを生成するために数百から数千の連続関数評価(ステップ)を必要とする。
本稿では,高い試料品質を維持しつつ,ステップの少ないDDPMの高速サンプリング法を開発することを目的とする。
論文 参考訳(メタデータ) (2023-04-22T16:58:47Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Preconditioned Score-based Generative Models [49.88840603798831]
直感的な加速度法はサンプリングの繰り返しを減らし、しかしながら重大な性能劣化を引き起こす。
本稿では,行列プレコンディショニングを利用したモデル非依存型bfem事前条件拡散サンプリング(PDS)手法を提案する。
PDSは、バニラSGMのサンプリングプロセスを限界余剰計算コストで変更し、モデルの再訓練を行わない。
論文 参考訳(メタデータ) (2023-02-13T16:30:53Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。