論文の概要: One-Step Diffusion Samplers via Self-Distillation and Deterministic Flow
- arxiv url: http://arxiv.org/abs/2512.05251v1
- Date: Thu, 04 Dec 2025 20:57:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.811955
- Title: One-Step Diffusion Samplers via Self-Distillation and Deterministic Flow
- Title(参考訳): 自己蒸留と決定論的流れによる1ステップ拡散サンプリング
- Authors: Pascal Jutras-Dube, Jiaru Zhang, Ziran Wang, Ruqi Zhang,
- Abstract要約: 既存のサンプリングアルゴリズムは通常、高品質なサンプルを作成するために多くの反復的なステップを必要とする。
ステップ条件のODEを学習する1ステップ拡散サンプリング器を提案する。
標準のELBO推定値が数ステップで劣化するのは、よく見られる離散的な収差が前方/後方遷移カーネルと一致していないためである。
- 参考スコア(独自算出の注目度): 24.67443222055996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sampling from unnormalized target distributions is a fundamental yet challenging task in machine learning and statistics. Existing sampling algorithms typically require many iterative steps to produce high-quality samples, leading to high computational costs. We introduce one-step diffusion samplers which learn a step-conditioned ODE so that one large step reproduces the trajectory of many small ones via a state-space consistency loss. We further show that standard ELBO estimates in diffusion samplers degrade in the few-step regime because common discrete integrators yield mismatched forward/backward transition kernels. Motivated by this analysis, we derive a deterministic-flow (DF) importance weight for ELBO estimation without a backward kernel. To calibrate DF, we introduce a volume-consistency regularization that aligns the accumulated volume change along the flow across step resolutions. Our proposed sampler therefore achieves both sampling and stable evidence estimate in only one or few steps. Across challenging synthetic and Bayesian benchmarks, it achieves competitive sample quality with orders-of-magnitude fewer network evaluations while maintaining robust ELBO estimates.
- Abstract(参考訳): 正規化されていないターゲット分布からサンプリングすることは、機械学習と統計学の基本的な課題である。
既存のサンプリングアルゴリズムは、通常、高品質なサンプルを作成するために多くの反復的なステップを必要とし、高い計算コストをもたらす。
ステップ条件付きODEを学習する1ステップ拡散サンプリング器を導入し、その大きなステップは状態空間の整合性損失によって多くの小さなIDEの軌道を再現する。
さらに, 拡散サンプリングにおける標準ELBO推定値が, 離散積分器が不一致な前方/後方遷移カーネルを生成するため, 数ステップで劣化することを示す。
この分析により, 後進カーネルを含まないELBO推定において, 決定論的フロー(DF)の重み付けを導出する。
DFをキャリブレーションするために,ステップ分解能をまたいだフローに沿って蓄積した体積変化を整列するボリューム整合正則化を導入する。
提案するサンプルは, サンプリングと安定なエビデンスの両方を, 1段階ないし数段階で評価する。
難易度の高い合成およびベイズベンチマーク全体において、ELBO推定値を維持しながら、桁違いのネットワーク評価を減らし、競合するサンプル品質を達成する。
関連論文リスト
- Joint Distillation for Fast Likelihood Evaluation and Sampling in Flow-based Models [100.28111930893188]
今日の最高の生成モデルの中には、単一の可能性を計算するために、数百から数千の神経機能評価を必要とするものもあります。
本研究では, 高速流動継手蒸留法 (F2D2) を提案し, サンプリングに必要なNFEの数を2桁に減らした。
F2D2はモジュール構造であり、既存のフローベースの数ステップサンプリングモデルと互換性がある。
論文 参考訳(メタデータ) (2025-12-02T10:48:20Z) - Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Quantizing Diffusion Models from a Sampling-Aware Perspective [43.95032520555463]
本稿では,混合次軌道アライメント手法を考案したサンプリング対応量子化手法を提案する。
複数のデータセットにまたがるスパースステップ高速サンプリング実験により,本手法は高速サンプリング器の高速収束特性を保っていることが示された。
論文 参考訳(メタデータ) (2025-05-04T20:50:44Z) - Single-Step Consistent Diffusion Samplers [8.758218443992467]
既存のサンプリングアルゴリズムは通常、高品質なサンプルを作成するために多くの反復的なステップを必要とする。
単一ステップで高忠実度サンプルを生成するために設計された新しいサンプルクラスである,一貫した拡散サンプリングを導入している。
提案手法は,従来の拡散サンプリング装置で要求されるネットワーク評価の1%以下を用いて,高忠実度サンプルが得られることを示す。
論文 参考訳(メタデータ) (2025-02-11T14:25:52Z) - Neural Flow Samplers with Shortcut Models [19.81513273510523]
連続フローベースのニューラルサンプリングは、非正規化された密度からサンプルを生成するための有望なアプローチを提供する。
速度駆動型Sequential Monte Carlo法を用いて,これらの課題量に対する改良された推定器を提案する。
提案するニューラルフローショートカットサンプリングは,合成データセットと複雑なnボディシステムターゲットの両方において,既存のフローベースニューラルサンプリングよりも経験的に優れている。
論文 参考訳(メタデータ) (2025-02-11T07:55:41Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Self-Refining Diffusion Samplers: Enabling Parallelization via Parareal Iterations [53.180374639531145]
自己精製拡散サンプリング(SRDS)は、サンプル品質を維持し、追加の並列計算コストでレイテンシを向上させることができる。
微分方程式の並列時間積分法であるPararealアルゴリズムから着想を得た。
論文 参考訳(メタデータ) (2024-12-11T11:08:09Z) - SITCOM: Step-wise Triple-Consistent Diffusion Sampling for Inverse Problems [14.2814208019426]
拡散モデル(英: Diffusion Model、DM)は、トレーニングセット上で学習した分布からサンプリングできる生成モデルのクラスである。
測定一貫性拡散軌道を達成するための3つの条件を述べる。
我々は,標準データ多様体測定一貫性と前方拡散一貫性を強制するだけでなく,提案したステップワイドおよびネットワーク正規化後方拡散一貫性を取り入れた新しい最適化に基づくサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T13:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。