論文の概要: Warm Starts Accelerate Generative Modelling
- arxiv url: http://arxiv.org/abs/2507.09212v1
- Date: Sat, 12 Jul 2025 09:07:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.759154
- Title: Warm Starts Accelerate Generative Modelling
- Title(参考訳): Warmがジェネレーティブモデリングの高速化を開始
- Authors: Jonas Scholz, Richard E. Turner,
- Abstract要約: 反復生成モデルは、ノイズベクトルをデータに徐々に精製することで、高忠実度サンプルを作成する。
より優れた出発点を提供することで条件生成を劇的に加速する,シンプルな決定論的モデルであるウォームスタートモデルを導入する。
提案手法は,1000ステップのDDPMベースラインと競合するが,総関数評価は11点のみである。
- 参考スコア(独自算出の注目度): 20.244096415321994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Iterative generative models, like diffusion and flow-matching, create high-fidelity samples by progressively refining a noise vector into data. However, this process is notoriously slow, often requiring hundreds of function evaluations. We introduce the warm-start model, a simple, deterministic model that dramatically accelerates conditional generation by providing a better starting point. Instead of starting generation from an uninformed N(0, I) prior, our warm-start model predicts an informed prior N(mu, sigma), whose moments are conditioned on the input context. This "warm start" substantially reduces the distance the generative process must traverse, particularly when the conditioning information is strongly informative. On tasks like image inpainting, our method achieves results competitive with a 1000-step DDPM baseline using only 11 total function evaluations (1 for the warm start, 10 for generation). A simple conditional normalization trick makes our method compatible with any standard generative model and sampler without modification, allowing it to be combined with other efficient sampling techniques for further acceleration. Our implementation is available at https://github.com/jonas-scholz123/warm-start-model.
- Abstract(参考訳): 拡散やフローマッチングのような反復生成モデルは、ノイズベクトルをデータに徐々に精製することで高忠実度サンプルを作成する。
しかし、このプロセスは遅く、何百もの機能評価を必要とすることも多い。
より優れた出発点を提供することで条件生成を劇的に加速する,シンプルな決定論的モデルであるウォームスタートモデルを導入する。
非インフォーム N(0, I) から生成を開始する代わりに、我々のウォームスタートモデルは入力コンテキストでモーメントが条件付けられた情報前の N(mu, sigma) を予測する。
この「ウォームスタート」は、特に条件情報が強い情報である場合、生成過程が通過しなければならない距離を大幅に減少させる。
画像の塗布などのタスクでは,1000ステップのDDPMベースラインと競合する結果が得られ,総関数評価は11点(温暖化開始時1点,生成時10点)に留まった。
簡単な条件付き正規化手法により,提案手法は改良することなく任意の標準生成モデルやサンプリング器と互換性を保ち,他の効率的なサンプリング手法と組み合わせてさらなる加速を行うことができる。
実装はhttps://github.com/jonas-scholz123/warm-start-modelで公開しています。
関連論文リスト
- Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - One Step Diffusion via Shortcut Models [109.72495454280627]
単一ネットワークとトレーニングフェーズを用いて高品質なサンプルを生成する,生成モデルのファミリであるショートカットモデルを導入する。
ショートカットモデルは、現在のノイズレベルと所望のステップサイズにネットワークを条件付け、生成プロセスでモデルをスキップすることができる。
蒸留と比較して、ショートカットモデルは複雑性を1つのネットワークとトレーニングフェーズに減らし、推論時に様々なステップ予算を許容する。
論文 参考訳(メタデータ) (2024-10-16T13:34:40Z) - Flow Matching with Gaussian Process Priors for Probabilistic Time Series Forecasting [43.951394031702016]
本稿では,ガウス過程,最適輸送経路,データ依存の事前分布を組み合わせた時系列の条件付きフローマッチング(CFM)モデルであるTSFlowを紹介する。
条件付きモデルと非条件付きモデルの両方が、複数の予測ベンチマークで競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-03T22:12:50Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - A Hybrid GNN approach for predicting node data for 3D meshes [0.0]
現在,有限要素法による最適パラメータの予測を行っている。
新たなデータシミュレーションの処理と生成を支援するハイブリッドアプローチを導入する。
新しいモデルは、シミュレーションを作成するために適用された場合、既存のPointNetや単純なグラフニューラルネットワークモデルよりも優れています。
論文 参考訳(メタデータ) (2023-10-23T08:47:27Z) - Score Mismatching for Generative Modeling [4.413162309652114]
そこで我々は,一段階サンプリングを用いた新しいスコアベースモデルを提案する。
我々は、スコアネットワークから逆転した勾配で全ての時間ステップを圧縮するようにスタンドアロンのジェネレータを訓練する。
生成器に有意義な勾配を与えるため、スコアネットワークは実データ分布を同時にマッチングし、偽データ分布を誤マッチするように訓練される。
論文 参考訳(メタデータ) (2023-09-20T03:47:12Z) - Minimizing Trajectory Curvature of ODE-based Generative Models [45.89620603363946]
拡散モデル、整流モデル、流れマッチングなどの最近の生成モデルは、生成過程を固定前進過程の時間反転として定義する。
我々は, ODE/SDEシミュレーションを使わずに生成軌道の曲率を最小化するために, 前進過程を効率的に訓練する方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T21:52:03Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。