論文の概要: Pretrained Diffusion Models Are Inherently Skipped-Step Samplers
- arxiv url: http://arxiv.org/abs/2508.15233v1
- Date: Thu, 21 Aug 2025 04:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.186306
- Title: Pretrained Diffusion Models Are Inherently Skipped-Step Samplers
- Title(参考訳): 予め訓練された拡散モデルがスライプステップサンプリング器になる
- Authors: Wenju Xu,
- Abstract要約: 繰り返し生成プロセスにおいて,複数の中間演示ステップをバイパスする機構であるスキップステップサンプリングを導入する。
我々は,このスキップステップサンプリング機構が標準拡散モデルと同じ学習目標から導出されることを実証した。
本稿では,加速サンプリング技術とDDIMを統合した改良型生成法を提案する。
- 参考スコア(独自算出の注目度): 4.858858247064974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have been achieving state-of-the-art results across various generation tasks. However, a notable drawback is their sequential generation process, requiring long-sequence step-by-step generation. Existing methods, such as DDIM, attempt to reduce sampling steps by constructing a class of non-Markovian diffusion processes that maintain the same training objective. However, there remains a gap in understanding whether the original diffusion process can achieve the same efficiency without resorting to non-Markovian processes. In this paper, we provide a confirmative answer and introduce skipped-step sampling, a mechanism that bypasses multiple intermediate denoising steps in the iterative generation process, in contrast with the traditional step-by-step refinement of standard diffusion inference. Crucially, we demonstrate that this skipped-step sampling mechanism is derived from the same training objective as the standard diffusion model, indicating that accelerated sampling via skipped-step sampling via a Markovian way is an intrinsic property of pretrained diffusion models. Additionally, we propose an enhanced generation method by integrating our accelerated sampling technique with DDIM. Extensive experiments on popular pretrained diffusion models, including the OpenAI ADM, Stable Diffusion, and Open Sora models, show that our method achieves high-quality generation with significantly reduced sampling steps.
- Abstract(参考訳): 拡散モデルは様々な世代のタスクで最先端の結果を達成している。
しかし、顕著な欠点は、そのシーケンシャルな生成プロセスであり、長いシーケンシャルなステップバイステップ生成を必要とする。
DDIMのような既存の手法は、同じ訓練目標を維持する非マルコフ拡散過程のクラスを構築することでサンプリングステップの削減を試みる。
しかし、元の拡散過程が非マルコフ過程に頼らずに同じ効率を達成できるかどうかを理解するにはギャップがある。
本稿では,従来の標準拡散推論のステップ・バイ・ステップ改良とは対照的に,反復生成過程における複数の中間段階をバイパスする機構であるスキップ・ステップサンプリングを導入する。
重要なことに、このスキップステップサンプリング機構は標準拡散モデルと同じ学習目標から導出されており、マルコフ法によるスキップステップサンプリングによる高速化は、事前訓練された拡散モデルの本質的な性質であることを示す。
さらに,高速化されたサンプリング手法とDDIMを統合することで,改良された生成手法を提案する。
OpenAI ADM、Stable Diffusion、Open Soraモデルなど、一般的な事前学習拡散モデルに対する広範な実験により、本手法はサンプリングステップを大幅に削減して高品質な生成を実現することを示す。
関連論文リスト
- EM Distillation for One-step Diffusion Models [65.57766773137068]
最小品質の損失を最小限に抑えた1ステップ生成モデルに拡散モデルを蒸留する最大可能性に基づく手法を提案する。
本研究では, 蒸留プロセスの安定化を図るため, 再パラメータ化サンプリング手法とノイズキャンセリング手法を開発した。
論文 参考訳(メタデータ) (2024-05-27T05:55:22Z) - Fast Sampling via Discrete Non-Markov Diffusion Models with Predetermined Transition Time [49.598085130313514]
離散非マルコフ拡散モデル(DNDM)を提案する。
これにより、トレーニング不要なサンプリングアルゴリズムにより、関数評価の数を大幅に削減できる。
有限ステップサンプリングから無限ステップサンプリングへの移行について検討し、離散プロセスと連続プロセスのギャップを埋めるための新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。