論文の概要: FSampler: Training Free Acceleration of Diffusion Sampling via Epsilon Extrapolation
- arxiv url: http://arxiv.org/abs/2511.09180v1
- Date: Thu, 13 Nov 2025 01:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.450355
- Title: FSampler: Training Free Acceleration of Diffusion Sampling via Epsilon Extrapolation
- Title(参考訳): FSampler:Epsilon外挿による拡散サンプリング自由加速の訓練
- Authors: Michael A. Vladimir,
- Abstract要約: FSamplerは、NFE(Function Evaluations)の数を削減して拡散サンプリングを加速するトレーニングフリーのサンプル実行層である。
FSamplerは、最近の実モデル呼び出しからの信号の分解の歴史を短く保ち、有限差分予測器を用いて次のエプシロンを外挿する。
サンプルレベルで動作するFSamplerは、Euler/DDIM、DPM++ 2M/2S、LMS/AB2、RESファミリー指数的マルチステップメソッドと統合されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: FSampler is a training free, sampler agnostic execution layer that accelerates diffusion sampling by reducing the number of function evaluations (NFE). FSampler maintains a short history of denoising signals (epsilon) from recent real model calls and extrapolates the next epsilon using finite difference predictors at second order, third order, or fourth order, falling back to lower order when history is insufficient. On selected steps the predicted epsilon substitutes the model call while keeping each sampler's update rule unchanged. Predicted epsilons are validated for finiteness and magnitude; a learning stabilizer rescales predictions on skipped steps to correct drift, and an optional gradient estimation stabilizer compensates local curvature. Protected windows, periodic anchors, and a cap on consecutive skips bound deviation over the trajectory. Operating at the sampler level, FSampler integrates with Euler/DDIM, DPM++ 2M/2S, LMS/AB2, and RES family exponential multistep methods and drops into standard workflows. FLUX.1 dev, Qwen Image, and Wan 2.2, FSampler reduces time by 8 to 22% and model calls by 15 to 25% at high fidelity (Structural Similarity Index (SSIM) 0.95 to 0.99), without altering sampler formulas. With an aggressive adaptive gate, reductions can reach 45 to 50% fewer model calls at lower fidelity (SSIM 0.73 to 0.74).
- Abstract(参考訳): FSamplerは、NFE(Function Evaluations)の数を減らして拡散サンプリングを加速するトレーニングフリーのサンプル非依存実行層である。
FSamplerは、最近の実モデル呼び出しから信号(エプシロン)をデノナイズする短い歴史を維持し、二階、三階、四階の差分予測器を用いて次のエプシロンを外挿し、歴史が不十分な場合には下位のオーダーに戻す。
選択されたステップにおいて、予測されたエプシロンは、各サンプルの更新ルールを変更せずにモデルコールを代用する。
予測エプシロンは有限性と等級で検証され、学習安定化器はスキップステップの予測を再スケールしてドリフトを補正し、任意の勾配推定安定化器は局所曲率を補償する。
保護された窓、周期的なアンカー、キャップは連続的に軌道上の偏差をスキップする。
サンプルレベルで動作するFSamplerは、Euler/DDIM、DPM++ 2M/2S、LMS/AB2、RESファミリー指数的マルチステップメソッドを統合し、標準ワークフローにドロップする。
FLUX.1 dev, Qwen Image, and Wan 2.2, FSamplerは、サンプル式を変更することなく、時間を8から22%削減し、高忠実度で15から25%のモデルコールを行う(SSIM(Structural similarity Index) 0.95から0.99)。
アグレッシブ適応ゲートでは、低忠実度(SSIM 0.73から0.74)でのモデル呼び出しが45から50%減少する。
関連論文リスト
- HyperFlow: Gradient-Free Emulation of Few-Shot Fine-Tuning [20.308785668386424]
計算勾配を使わずに勾配降下をエミュレートし,効率的なテスト時間適応を実現する手法を提案する。
具体的には、通常の微分方程式(ODE)のオイラー離散化として勾配降下を定式化し、タスク条件ドリフトを予測するために補助ネットワークを訓練する。
適応は単純な数値積分に還元され、補助ネットワークのわずかな前方通過しか必要としない。
論文 参考訳(メタデータ) (2025-04-21T03:04:38Z) - Provable Acceleration for Diffusion Models under Minimal Assumptions [8.15094483029656]
そこで本研究では,スコアベースサンプルの学習自由化手法を提案する。
最小限の仮定の下で、我々のスキームは$widetildeO(d5/4/sqrtvarepsilon)$で全変量を達成する。
論文 参考訳(メタデータ) (2024-10-30T17:59:06Z) - DC-Solver: Improving Predictor-Corrector Diffusion Sampler via Dynamic Compensation [68.55191764622525]
拡散モデル(DPM)は、視覚合成において顕著な性能を示すが、サンプリング中に複数の評価を必要とするため、計算コストが高い。
最近の予測器合成・拡散サンプリング装置は,要求される評価回数を大幅に削減したが,本質的には誤調整の問題に悩まされている。
我々はDC-CPRrと呼ばれる新しい高速DPMサンプリング装置を導入する。
論文 参考訳(メタデータ) (2024-09-05T17:59:46Z) - Score Normalization for a Faster Diffusion Exponential Integrator
Sampler [8.914068241467234]
Zhangらは拡散モデルからサンプルを高速に生成するための拡散指数積分器サンプリング(DEIS)を提案している。
このアプローチの鍵となるのはスコア関数の再パラメータ化であり、これは固定スコア関数の推定値から得られる積分誤差を低減する。
スコア正規化(DEIS-SN)はバニラDISと比較して常にFIDを改善している。
論文 参考訳(メタデータ) (2023-10-31T21:18:44Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Restoration-Degradation Beyond Linear Diffusions: A Non-Asymptotic
Analysis For DDIM-Type Samplers [90.45898746733397]
本研究では拡散生成モデルに用いる決定論的サンプリング器の非漸近解析のためのフレームワークを開発する。
確率フローODEに沿った1ステップは,1) 条件付き対数線上を無限に先行して上昇する回復ステップ,2) 雑音を現在の勾配に向けて前向きに進行する劣化ステップの2段階で表すことができる。
論文 参考訳(メタデータ) (2023-03-06T18:59:19Z) - Borrowing From the Future: Addressing Double Sampling in Model-free
Control [8.282602586225833]
本稿では,BFFアルゴリズムをアクション値関数に基づくモデルフリー制御に拡張する。
BFF が非バイアスの SGD に近づき、基礎となる力学が動作に関してゆっくりと変化する。
論文 参考訳(メタデータ) (2020-06-11T03:50:37Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。