論文の概要: Are First-Order Diffusion Samplers Really Slower? A Fast Forward-Value Approach
- arxiv url: http://arxiv.org/abs/2512.24927v1
- Date: Wed, 31 Dec 2025 15:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.693204
- Title: Are First-Order Diffusion Samplers Really Slower? A Fast Forward-Value Approach
- Title(参考訳): 1次拡散サンプリングは本当に遅いのか? -高速前方値アプローチ-
- Authors: Yuchen Jiao, Na Li, Changxiao Cai, Gen Li,
- Abstract要約: 高次ODEソルバは拡散確率モデル(DPM)サンプリングを高速化するための標準ツールとなっている。
本稿では, DPM 評価の配置がサンプリング精度に大きく影響することを示す。
本稿では,DDIMと逆の符号を持つ新しい学習自由一階検定器を提案する。
- 参考スコア(独自算出の注目度): 12.564043065639177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Higher-order ODE solvers have become a standard tool for accelerating diffusion probabilistic model (DPM) sampling, motivating the widespread view that first-order methods are inherently slower and that increasing discretization order is the primary path to faster generation. This paper challenges this belief and revisits acceleration from a complementary angle: beyond solver order, the placement of DPM evaluations along the reverse-time dynamics can substantially affect sampling accuracy in the low-neural function evaluation (NFE) regime. We propose a novel training-free, first-order sampler whose leading discretization error has the opposite sign to that of DDIM. Algorithmically, the method approximates the forward-value evaluation via a cheap one-step lookahead predictor. We provide theoretical guarantees showing that the resulting sampler provably approximates the ideal forward-value trajectory while retaining first-order convergence. Empirically, across standard image generation benchmarks (CIFAR-10, ImageNet, FFHQ, and LSUN), the proposed sampler consistently improves sample quality under the same NFE budget and can be competitive with, and sometimes outperform, state-of-the-art higher-order samplers. Overall, the results suggest that the placement of DPM evaluations provides an additional and largely independent design angle for accelerating diffusion sampling.
- Abstract(参考訳): 高次ODEソルバは拡散確率モデル(DPM)サンプリングを高速化するための標準ツールとなり、一階法が本質的に遅く、離散化順序の増大がより高速な生成への主要な経路である、という広く知られるようになった。
本稿では、この信念に挑戦し、補完的な角度から加速を再考する:ソルバ次数を超えて、逆時間ダイナミクスによるDPM評価の配置は、低次機能評価(NFE)体制におけるサンプリング精度に大きく影響する可能性がある。
本稿では,DDIMと逆の符号を持つ新しい学習自由一階検定器を提案する。
アルゴリズムでは、安価なワンステップルックアヘッド予測器を用いて前方値の評価を近似する。
得られたサンプルが1次収束を維持しながら理想の前方値軌道を確実に近似することを示す理論的保証を提供する。
実証的には、標準画像生成ベンチマーク(CIFAR-10, ImageNet, FFHQ, LSUN)において、提案されるサンプルは、同一のNFE予算下で一貫してサンプル品質を改善し、時として最先端の高次サンプリングと競合し得る。
以上の結果から, DPM 評価の配置は, 拡散サンプリングを加速するための追加的かつ大半独立な設計角度をもたらすことが示唆された。
関連論文リスト
- Accelerating Convergence of Score-Based Diffusion Models, Provably [44.11766377798812]
スコアベース拡散モデルはしばしばサンプリングフェーズで必要とされる広範な機能評価のためにサンプリング速度の低下に悩まされる。
我々は、一般的な決定論的(DDIM)および(DDPM)サンプリングを高速化する、新しいトレーニングフリーアルゴリズムを設計する。
我々の理論は、$ell$-accurate score estimatesを許容し、ターゲット分布に対数凹凸や滑らかさを必要としない。
論文 参考訳(メタデータ) (2024-03-06T17:02:39Z) - Boosting Diffusion Models with an Adaptive Momentum Sampler [21.88226514633627]
本稿では,広く使用されているAdamサンプルから着想を得た新しいDPM用リバースサンプルについて述べる。
提案手法は,事前学習した拡散モデルに容易に適用できる。
初期段階から更新方向を暗黙的に再利用することにより,提案するサンプルは,高レベルのセマンティクスと低レベルの詳細とのバランスを良くする。
論文 参考訳(メタデータ) (2023-08-23T06:22:02Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models [103.41269503488546]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Optimizing DDPM Sampling with Shortcut Fine-Tuning [16.137936204766692]
ショートカットファインチューニング(SFT)は、事前学習した拡散拡散確率モデル(DDPM)の高速サンプリングの課題に対処するための新しいアプローチである。
SFTは、積分確率メートル法(IPM)の直接最小化によるDDPMサンプリング器の微調整を提唱している。
制御の観点から着想を得た新しいアルゴリズム SFT-PG: Shortcut Fine-Tuning with Policy Gradient を提案する。
論文 参考訳(メタデータ) (2023-01-31T01:37:48Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。