論文の概要: TADA: Improved Diffusion Sampling with Training-free Augmented Dynamics
- arxiv url: http://arxiv.org/abs/2506.21757v1
- Date: Thu, 26 Jun 2025 20:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.008003
- Title: TADA: Improved Diffusion Sampling with Training-free Augmented Dynamics
- Title(参考訳): TADA: トレーニング不要強化ダイナミクスによる拡散サンプリングの改善
- Authors: Tianrong Chen, Huangjie Zheng, David Berthelot, Jiatao Gu, Josh Susskind, Shuangfei Zhai,
- Abstract要約: 我々は,ImageNet512 上で比較 FID を比較対象とするアートソルバの現在の状態よりも最大 186% 以上高速な新しいサンプリング手法を提案する。
提案手法の鍵は,高次元初期雑音を用いて,より詳細なサンプルを生成することである。
- 参考スコア(独自算出の注目度): 42.99251753481681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have demonstrated exceptional capabilities in generating high-fidelity images but typically suffer from inefficient sampling. Many solver designs and noise scheduling strategies have been proposed to dramatically improve sampling speeds. In this paper, we introduce a new sampling method that is up to $186\%$ faster than the current state of the art solver for comparative FID on ImageNet512. This new sampling method is training-free and uses an ordinary differential equation (ODE) solver. The key to our method resides in using higher-dimensional initial noise, allowing to produce more detailed samples with less function evaluations from existing pretrained diffusion models. In addition, by design our solver allows to control the level of detail through a simple hyper-parameter at no extra computational cost. We present how our approach leverages momentum dynamics by establishing a fundamental equivalence between momentum diffusion models and conventional diffusion models with respect to their training paradigms. Moreover, we observe the use of higher-dimensional noise naturally exhibits characteristics similar to stochastic differential equations (SDEs). Finally, we demonstrate strong performances on a set of representative pretrained diffusion models, including EDM, EDM2, and Stable-Diffusion 3, which cover models in both pixel and latent spaces, as well as class and text conditional settings. The code is available at https://github.com/apple/ml-tada.
- Abstract(参考訳): 拡散モデルは高忠実度画像の生成において例外的な能力を示したが、典型的には非効率なサンプリングに悩まされている。
サンプリング速度を劇的に向上させるため,多くの解法設計とノイズスケジューリング戦略が提案されている。
本稿では,ImageNet512上でのFID比較の最先端解法よりも最大186\%の高速なサンプリング手法を提案する。
この新しいサンプリング法は訓練不要であり、通常の微分方程式(ODE)ソルバを用いる。
提案手法の鍵となるのは高次元初期雑音を用いた場合であり,既存の事前学習拡散モデルによる機能評価の少ないより詳細なサンプルを作成できる。
さらに、設計により、計算コストを伴わずに、単純なハイパーパラメータによって詳細レベルを制御できる。
本稿では,運動量拡散モデルと従来の拡散モデルとの基本的な等価性を確立することで,運動量ダイナミクスを活用する方法を提案する。
さらに,高次元雑音を用いた場合,確率微分方程式(SDE)に類似した特性が自然に現れる。
最後に,EDM,EDM2,Stable-Diffusion 3などの事前学習型拡散モデルに対して,画素空間と潜時空間の両方のモデルと,クラス条件とテキスト条件の設定を対象とする強い性能を示す。
コードはhttps://github.com/apple/ml-tada.comから入手できる。
関連論文リスト
- An Ordinary Differential Equation Sampler with Stochastic Start for Diffusion Bridge Models [13.00429687431982]
拡散ブリッジモデルは、純粋なガウスノイズではなく、劣化した画像から生成過程を初期化する。
既存の拡散ブリッジモデルは、しばしば微分方程式のサンプリングに頼り、推論速度が遅くなる。
拡散ブリッジモデルの開始点を有する高次ODEサンプリング器を提案する。
本手法は, 既訓練拡散ブリッジモデルと完全に互換性があり, 追加の訓練は不要である。
論文 参考訳(メタデータ) (2024-12-28T03:32:26Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。