論文の概要: Disentanglement in T-space for Faster and Distributed Training of Diffusion Models with Fewer Latent-states
- arxiv url: http://arxiv.org/abs/2508.14413v1
- Date: Wed, 20 Aug 2025 04:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.339333
- Title: Disentanglement in T-space for Faster and Distributed Training of Diffusion Models with Fewer Latent-states
- Title(参考訳): 低遅延状態拡散モデルの高速・分散訓練のためのT空間の分散化
- Authors: Samarth Gupta, Raghudeep Gadde, Rui Chen, Aleix M. Martinez,
- Abstract要約: ノイズスケジュールを慎重に選択することで、少数の潜在状態に対してトレーニングされた拡散モデルが、多数の潜在状態に対してトレーニングされたモデルの性能と一致することを示す。
独立に訓練された1つの潜在状態モデルを組み合わせることで, 高精度なサンプルを容易に生成できることが示される。
- 参考スコア(独自算出の注目度): 8.35530009219588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We challenge a fundamental assumption of diffusion models, namely, that a large number of latent-states or time-steps is required for training so that the reverse generative process is close to a Gaussian. We first show that with careful selection of a noise schedule, diffusion models trained over a small number of latent states (i.e. $T \sim 32$) match the performance of models trained over a much large number of latent states ($T \sim 1,000$). Second, we push this limit (on the minimum number of latent states required) to a single latent-state, which we refer to as complete disentanglement in T-space. We show that high quality samples can be easily generated by the disentangled model obtained by combining several independently trained single latent-state models. We provide extensive experiments to show that the proposed disentangled model provides 4-6$\times$ faster convergence measured across a variety of metrics on two different datasets.
- Abstract(参考訳): 拡散モデルの基本的仮定、すなわち、逆生成過程がガウス的に近いように、トレーニングには大量の潜在状態や時間ステップが必要であるという仮定に挑戦する。
まず、ノイズスケジュールを慎重に選択することで、少数の潜在状態(例えば$T \sim 32$)でトレーニングされた拡散モデルが、非常に多くの潜在状態(T \sim 1000$)でトレーニングされたモデルのパフォーマンスと一致することを示す。
第2に、この極限(必要最小限の潜在状態数)を単一の潜在状態にプッシュし、これは T-空間における完全非絡み合いと呼ばれる。
独立に訓練された1つの潜在状態モデルを組み合わせることで, 高精度なサンプルを容易に生成できることが示される。
提案モデルが2つの異なるデータセット上の様々なメトリクスで測定された4-6$\times$高速収束を提供することを示すために、広範な実験を行った。
関連論文リスト
- Synergizing Transport-Based Generative Models and Latent Geometry for Stochastic Closure Modeling [1.665466637453776]
低次元潜在空間における流れのマッチングは閉包モデルの高速サンプリングに適していることを示す。
我々は、潜時空間の歪みを制御し、サンプリングされた閉包項の物理的忠実度を確保する。
論文 参考訳(メタデータ) (2026-02-19T05:24:00Z) - Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities [85.83359661628575]
拡散に基づくサンプル学習のために, PITA(Progressive Inference-Time Annealing)を提案する。
PITAはボルツマン分布のアナーリングと拡散平滑化という2つの相補的手法を組み合わせたものである。
N-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを可能にする。
論文 参考訳(メタデータ) (2025-06-19T17:14:22Z) - Accelerated Diffusion Models via Speculative Sampling [89.43940130493233]
投機的サンプリングは、大規模言語モデルにおける推論を加速する一般的な手法である。
我々は投機的サンプリングを拡散モデルに拡張し、連続したベクトル値のマルコフ連鎖を介してサンプルを生成する。
本稿では,ドラフトモデルをトレーニングする必要のない,シンプルで効果的なアプローチを含む,さまざまなドラフト戦略を提案する。
論文 参考訳(メタデータ) (2025-01-09T16:50:16Z) - Bayesian Flow Is All You Need to Sample Out-of-Distribution Chemical Spaces [0.0]
ベイジアンフローネットワークは,高品質なアウト・オブ・ディストリビューション・サンプルを生成することができることを示す。
本研究では,半自己回帰型トレーニング/サンプリング手法を導入し,モデル性能の向上と最先端モデルの超越を支援する。
論文 参考訳(メタデータ) (2024-12-16T04:43:54Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Towards a mathematical theory for consistency training in diffusion
models [17.632123036281957]
本稿では,一貫性モデルの理論的基盤を確立するための第一歩を踏み出す。
分布中のターゲットに近接する$varepsilon$のサンプルを生成するためには、データ次元で$d5/2/varepsilon$を超える一貫性学習のステップの数に十分であることを示す。
我々の理論は一貫性モデルの有効性と有効性に関する厳密な洞察を与え、下流推論タスクにおけるそれらの有用性を示す。
論文 参考訳(メタデータ) (2024-02-12T17:07:02Z) - Stable generative modeling using Schrödinger bridges [0.22499166814992438]
本稿では,Schr"odinger BridgesとLangevin dynamicsを組み合わせた生成モデルを提案する。
我々のフレームワークは自然に条件付きサンプルを生成し、ベイズ推論問題に拡張することができる。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Practical and Asymptotically Exact Conditional Sampling in Diffusion Models [35.686996120862055]
条件生成法では,タスク固有の訓練を必要とせず,幅広い条件分布の正確なサンプルを提供する必要がある。
重み付き粒子の集合をシミュレートすることで拡散モデルの条件分布をターゲットとした逐次モンテカルロアルゴリズムであるTwisted Diffusion Sampler(TDS)を導入する。
ベンチマークテストケースでは、TDSはフレキシブルなコンディショニング基準を可能にし、多くの場合、最先端の技術よりも優れています。
論文 参考訳(メタデータ) (2023-06-30T16:29:44Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Non-Uniform Diffusion Models [0.8602553195689513]
非一様拡散は、マルチスケール正規化フローと似た構造を持つマルチスケール拡散モデルをもたらすことを示す。
実験により, 同一あるいは少ないトレーニング時間において, マルチスケール拡散モデルでは, 標準均一拡散モデルよりも優れたFIDスコアが得られることがわかった。
また, 非一様拡散は, 条件付きスコア関数に対して, 最先端の条件付きデノナイジング推定器と同等の性能を達成するための新しい推定器となることを示す。
論文 参考訳(メタデータ) (2022-07-20T09:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。