論文の概要: Tortoise and Hare Guidance: Accelerating Diffusion Model Inference with Multirate Integration
- arxiv url: http://arxiv.org/abs/2511.04117v1
- Date: Thu, 06 Nov 2025 07:08:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.33758
- Title: Tortoise and Hare Guidance: Accelerating Diffusion Model Inference with Multirate Integration
- Title(参考訳): TortoiseとHare Guidance:マルチレート統合による拡散モデル推論の高速化
- Authors: Yunghee Lee, Byeonghyun Pak, Junwha Hong, Hoseong Kim,
- Abstract要約: Tortoise and Hare Guidance(THG)は、高忠実度生成を維持しながら拡散サンプリングを加速するトレーニングフリー戦略である。
THGは機能評価(NFE)の回数を30%まで削減し, 世代密度の低下はほとんど生じないことを示した。
本研究は,拡散解法におけるマルチレート定式化の可能性を強調し,モデル再構成なしにリアルタイムな高品質な画像合成を実現することを目的とした。
- 参考スコア(独自算出の注目度): 5.634791333443662
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we propose Tortoise and Hare Guidance (THG), a training-free strategy that accelerates diffusion sampling while maintaining high-fidelity generation. We demonstrate that the noise estimate and the additional guidance term exhibit markedly different sensitivity to numerical error by reformulating the classifier-free guidance (CFG) ODE as a multirate system of ODEs. Our error-bound analysis shows that the additional guidance branch is more robust to approximation, revealing substantial redundancy that conventional solvers fail to exploit. Building on this insight, THG significantly reduces the computation of the additional guidance: the noise estimate is integrated with the tortoise equation on the original, fine-grained timestep grid, while the additional guidance is integrated with the hare equation only on a coarse grid. We also introduce (i) an error-bound-aware timestep sampler that adaptively selects step sizes and (ii) a guidance-scale scheduler that stabilizes large extrapolation spans. THG reduces the number of function evaluations (NFE) by up to 30% with virtually no loss in generation fidelity ($\Delta$ImageReward $\leq$ 0.032) and outperforms state-of-the-art CFG-based training-free accelerators under identical computation budgets. Our findings highlight the potential of multirate formulations for diffusion solvers, paving the way for real-time high-quality image synthesis without any model retraining. The source code is available at https://github.com/yhlee-add/THG.
- Abstract(参考訳): 本稿では,高忠実度生成を維持しながら拡散サンプリングを高速化する学習自由戦略であるTortoise and Hare Guidance(THG)を提案する。
我々は,音量推定と付加的な誘導項が,分類器フリーガイダンス(CFG)ODEをODEのマルチレートシステムとして再構成することにより,数値誤差に対して著しく異なる感度を示すことを示した。
誤差バウンド解析により、追加のガイダンス分岐が近似に対してより堅牢であることを示し、従来の解法では利用できない相当な冗長性を明らかにした。
この知見に基づいて、THGは追加のガイダンスの計算を著しく減らし、ノイズ推定は元の微細な時間ステップグリッド上のトルトーズ方程式と統合され、追加のガイダンスは粗いグリッド上のハア方程式と統合される。
紹介する
i) ステップサイズを適応的に選択するエラーバウンド対応タイムステップサンプリング装置
(II)大規模な外挿スケジューラを安定化させる誘導スケールスケジューラ。
THGは機能評価(NFE)の数を30%まで削減し($\Delta$ImageReward $\leq$ 0.032)、同じ計算予算の下で最先端のCFGベースのトレーニングフリーアクセラレータを上回ります。
本研究は,拡散解法におけるマルチレート定式化の可能性を強調し,モデル再構成なしにリアルタイムな高品質な画像合成を実現することを目的とした。
ソースコードはhttps://github.com/yhlee-add/THG.comで公開されている。
関連論文リスト
- Coefficients-Preserving Sampling for Reinforcement Learning with Flow Matching [6.238027696245818]
Reinforcement Learning (RL) は拡散およびフローマッチングモデルにおける画像生成と映像生成を改善する強力な手法として登場した。
SDEに基づくサンプリングは、生成された画像に顕著なノイズアーティファクトを導入します。
提案手法であるCoefficients-Preserving Sampling (CPS)は,これらのノイズアーティファクトを除去する。
論文 参考訳(メタデータ) (2025-09-07T07:25:00Z) - Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Flow-GRPO: Training Flow Matching Models via Online RL [80.62659379624867]
本稿では,オンライン政策強化学習をフローマッチングモデルに統合する最初の方法であるFlow-GRPOを提案する。
提案手法では,(1)決定論的正規微分方程式を同値な微分方程式に変換するODE-to-SDE変換と,(2)推論ステップの数を維持しながらトレーニングの段階を短縮するDenoising Reduction戦略の2つの主要な戦略を用いる。
論文 参考訳(メタデータ) (2025-05-08T17:58:45Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。