論文の概要: Warm Starts Accelerate Conditional Diffusion
- arxiv url: http://arxiv.org/abs/2507.09212v2
- Date: Mon, 29 Sep 2025 14:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 17:47:09.106038
- Title: Warm Starts Accelerate Conditional Diffusion
- Title(参考訳): Warmが条件拡散の加速を開始
- Authors: Jonas Scholz, Richard E. Turner,
- Abstract要約: 拡散や流れマッチングのような生成モデルは、ノイズを徐々に精製することで高忠実度サンプルを生成する。
本稿では、簡単な決定論的モデルを用いて条件生成を劇的に高速化するWarm-Start Diffusion(WSD)を紹介する。
WSDは効率的なサンプリング方式において標準拡散を著しく上回る。
- 参考スコア(独自算出の注目度): 20.22808227772002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models like diffusion and flow-matching create high-fidelity samples by progressively refining noise. The refinement process is notoriously slow, often requiring hundreds of function evaluations. We introduce Warm-Start Diffusion (WSD), a method that uses a simple, deterministic model to dramatically accelerate conditional generation by providing a better starting point. Instead of starting generation from an uninformed $N(\boldsymbol{0}, I)$ prior, our deterministic warm-start model predicts an informed prior $N(\hat{\boldsymbol{\mu}}_C, \text{diag}(\hat{\boldsymbol{\sigma}}^2_C))$, whose moments are conditioned on the input context $C$. This warm start substantially reduces the distance the generative process must traverse, and therefore the number of diffusion steps required, particularly when the context $C$ is strongly informative. WSD is applicable to any standard diffusion or flow matching algorithm, is orthogonal to and synergistic with other fast sampling techniques like efficient solvers, and is simple to implement. We test WSD in a variety of settings, and find that it substantially outperforms standard diffusion in the efficient sampling regime, generating realistic samples using only 4-6 function evaluations, and saturating performance with 10-12.
- Abstract(参考訳): 拡散や流れマッチングのような生成モデルは、ノイズを徐々に精製することで高忠実度サンプルを生成する。
精錬プロセスは遅く、何百もの機能評価を必要とすることも多い。
本稿では,より優れた出発点を提供することで,条件生成を劇的に高速化する簡易な決定論的モデルを用いたワーム・スタート拡散(WSD)を紹介する。
式なしの $N(\boldsymbol{0}, I)$ から生成を開始する代わりに、決定論的ウォームスタートモデルは入力コンテキスト $C$ で条件付きである $N(\hat{\boldsymbol{\mu}}_C, \text{diag}(\hat{\boldsymbol{\sigma}}^2_C))$ を予測します。
この温かいスタートは、生成過程が横切る必要がある距離を大幅に減少させるので、特に文脈$C$が強い意味を持つ場合、必要な拡散ステップの数を減少させる。
WSDは任意の標準拡散やフローマッチングアルゴリズムに適用でき、効率的な解法のような他の高速サンプリング手法と直交し、相乗効果があり、実装も簡単である。
我々はWSDを様々な環境でテストし、効率的なサンプリング方式における標準拡散を著しく上回り、4~6関数評価のみを用いて現実的なサンプルを生成し、性能を10~12で飽和させる。
関連論文リスト
- Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - One Step Diffusion via Shortcut Models [109.72495454280627]
単一ネットワークとトレーニングフェーズを用いて高品質なサンプルを生成する,生成モデルのファミリであるショートカットモデルを導入する。
ショートカットモデルは、現在のノイズレベルと所望のステップサイズにネットワークを条件付け、生成プロセスでモデルをスキップすることができる。
蒸留と比較して、ショートカットモデルは複雑性を1つのネットワークとトレーニングフェーズに減らし、推論時に様々なステップ予算を許容する。
論文 参考訳(メタデータ) (2024-10-16T13:34:40Z) - Flow Matching with Gaussian Process Priors for Probabilistic Time Series Forecasting [43.951394031702016]
本稿では,ガウス過程,最適輸送経路,データ依存の事前分布を組み合わせた時系列の条件付きフローマッチング(CFM)モデルであるTSFlowを紹介する。
条件付きモデルと非条件付きモデルの両方が、複数の予測ベンチマークで競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-03T22:12:50Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - A Hybrid GNN approach for predicting node data for 3D meshes [0.0]
現在,有限要素法による最適パラメータの予測を行っている。
新たなデータシミュレーションの処理と生成を支援するハイブリッドアプローチを導入する。
新しいモデルは、シミュレーションを作成するために適用された場合、既存のPointNetや単純なグラフニューラルネットワークモデルよりも優れています。
論文 参考訳(メタデータ) (2023-10-23T08:47:27Z) - Score Mismatching for Generative Modeling [4.413162309652114]
そこで我々は,一段階サンプリングを用いた新しいスコアベースモデルを提案する。
我々は、スコアネットワークから逆転した勾配で全ての時間ステップを圧縮するようにスタンドアロンのジェネレータを訓練する。
生成器に有意義な勾配を与えるため、スコアネットワークは実データ分布を同時にマッチングし、偽データ分布を誤マッチするように訓練される。
論文 参考訳(メタデータ) (2023-09-20T03:47:12Z) - Minimizing Trajectory Curvature of ODE-based Generative Models [45.89620603363946]
拡散モデル、整流モデル、流れマッチングなどの最近の生成モデルは、生成過程を固定前進過程の時間反転として定義する。
我々は, ODE/SDEシミュレーションを使わずに生成軌道の曲率を最小化するために, 前進過程を効率的に訓練する方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T21:52:03Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。