論文の概要: Multilevel and Sequential Monte Carlo for Training-Free Diffusion Guidance
- arxiv url: http://arxiv.org/abs/2601.21104v1
- Date: Wed, 28 Jan 2026 22:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.469881
- Title: Multilevel and Sequential Monte Carlo for Training-Free Diffusion Guidance
- Title(参考訳): 学習自由拡散誘導のためのマルチレベルモンテカルロとシークエンシャルモンテカルロ
- Authors: Aidan Gleich, Scott C. Schmidler,
- Abstract要約: 我々は、$p_(y|x_t)$の偏りのない推定子を構成するシーケンシャルなモンテカルロフレームワークを提案する。
ImageNetでは,既存の手法よりも1.5倍のコスト対コストの利点を達成している。
- 参考スコア(独自算出の注目度): 0.6015898117103069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of accurate, training-free guidance for conditional generation in trained diffusion models. Existing methods typically rely on point-estimates to approximate the posterior score, often resulting in biased approximations that fail to capture multimodality inherent to the reverse process of diffusion models. We propose a sequential Monte Carlo (SMC) framework that constructs an unbiased estimator of $p_θ(y|x_t)$ by integrating over the full denoising distribution via Monte Carlo approximation. To ensure computational tractability, we incorporate variance-reduction schemes based on Multi-Level Monte Carlo (MLMC). Our approach achieves new state-of-the-art results for training-free guidance on CIFAR-10 class-conditional generation, achieving $95.6\%$ accuracy with $3\times$ lower cost-per-success than baselines. On ImageNet, our algorithm achieves $1.5\times$ cost-per-success advantage over existing methods.
- Abstract(参考訳): 我々は,訓練された拡散モデルにおける条件付き生成のための高精度でトレーニング不要なガイダンスの問題に対処する。
既存の手法は通常、後方のスコアを近似するために点推定に頼っており、しばしば、拡散モデルの逆過程に固有の多重モダリティを捉えるのに失敗する偏りのある近似をもたらす。
モンテカルロ近似を通した完全復調分布を積分することにより、p_θ(y|x_t)$の偏りのない推定器を構成するシーケンシャルモンテカルロ(SMC)フレームワークを提案する。
計算的トラクタビリティを確保するため,マルチレベルモンテカルロ(MLMC)に基づく分散還元方式を取り入れた。
提案手法は,CIFAR-10クラス条件生成のためのトレーニング不要指導のための新しい最先端の成果を達成し,ベースラインよりも3倍のコストで9,5.6 %の精度を実現した。
ImageNetでは,既存の手法よりも1.5\times$コスト/successの利点を実現している。
関連論文リスト
- Quasi-Monte Carlo Method for Linear Combination Unitaries via Classical Post-Processing [2.9436347471485558]
古典的後処理によるユニタリの線形結合に対する準モンテカルロ法を提案する。
準モンテカルロ法は1単位当たりのハダマール試験ショット数で最小誤差を達成することを示す。
論文 参考訳(メタデータ) (2025-09-17T22:00:42Z) - Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Bayesian computation with generative diffusion models by Multilevel Monte Carlo [0.16874375111244327]
生成拡散モデルは、逆問題におけるサンプリングを行うための強力な戦略として登場した。
しかし、拡散モデルでは、正確な後部サンプルを提供するために、サンプル毎に多数の神経機能評価を必要とすることが多い。
本稿では,拡散モデルを用いたベイズ応用のコストを大幅に削減するマルチレベルモンテカルロ戦略を提案する。
論文 参考訳(メタデータ) (2024-09-23T19:57:08Z) - Provable and Practical: Efficient Exploration in Reinforcement Learning via Langevin Monte Carlo [104.9535542833054]
我々は、強化学習のためのトンプソンサンプリングに基づくスケーラブルで効果的な探索戦略を提案する。
代わりに、Langevin Monte Carlo を用いて、Q 関数をその後部分布から直接サンプリングする。
提案手法は,Atari57スイートからのいくつかの挑戦的な探索課題において,最先端の深部RLアルゴリズムと比較して,より優れた,あるいは類似した結果が得られる。
論文 参考訳(メタデータ) (2023-05-29T17:11:28Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。