論文の概要: Disentanglement in T-space for Faster and Distributed Training of Diffusion Models with Fewer Latent-states
- arxiv url: http://arxiv.org/abs/2508.14413v1
- Date: Wed, 20 Aug 2025 04:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.339333
- Title: Disentanglement in T-space for Faster and Distributed Training of Diffusion Models with Fewer Latent-states
- Title(参考訳): 低遅延状態拡散モデルの高速・分散訓練のためのT空間の分散化
- Authors: Samarth Gupta, Raghudeep Gadde, Rui Chen, Aleix M. Martinez,
- Abstract要約: ノイズスケジュールを慎重に選択することで、少数の潜在状態に対してトレーニングされた拡散モデルが、多数の潜在状態に対してトレーニングされたモデルの性能と一致することを示す。
独立に訓練された1つの潜在状態モデルを組み合わせることで, 高精度なサンプルを容易に生成できることが示される。
- 参考スコア(独自算出の注目度): 8.35530009219588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We challenge a fundamental assumption of diffusion models, namely, that a large number of latent-states or time-steps is required for training so that the reverse generative process is close to a Gaussian. We first show that with careful selection of a noise schedule, diffusion models trained over a small number of latent states (i.e. $T \sim 32$) match the performance of models trained over a much large number of latent states ($T \sim 1,000$). Second, we push this limit (on the minimum number of latent states required) to a single latent-state, which we refer to as complete disentanglement in T-space. We show that high quality samples can be easily generated by the disentangled model obtained by combining several independently trained single latent-state models. We provide extensive experiments to show that the proposed disentangled model provides 4-6$\times$ faster convergence measured across a variety of metrics on two different datasets.
- Abstract(参考訳): 拡散モデルの基本的仮定、すなわち、逆生成過程がガウス的に近いように、トレーニングには大量の潜在状態や時間ステップが必要であるという仮定に挑戦する。
まず、ノイズスケジュールを慎重に選択することで、少数の潜在状態(例えば$T \sim 32$)でトレーニングされた拡散モデルが、非常に多くの潜在状態(T \sim 1000$)でトレーニングされたモデルのパフォーマンスと一致することを示す。
第2に、この極限(必要最小限の潜在状態数)を単一の潜在状態にプッシュし、これは T-空間における完全非絡み合いと呼ばれる。
独立に訓練された1つの潜在状態モデルを組み合わせることで, 高精度なサンプルを容易に生成できることが示される。
提案モデルが2つの異なるデータセット上の様々なメトリクスで測定された4-6$\times$高速収束を提供することを示すために、広範な実験を行った。
関連論文リスト
- Progressive Inference-Time Annealing of Diffusion Models for Sampling from Boltzmann Densities [85.83359661628575]
拡散に基づくサンプル学習のために, PITA(Progressive Inference-Time Annealing)を提案する。
PITAはボルツマン分布のアナーリングと拡散平滑化という2つの相補的手法を組み合わせたものである。
N-体粒子系、アラニンジペプチド、トリペプチドの平衡サンプリングを可能にする。
論文 参考訳(メタデータ) (2025-06-19T17:14:22Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Stable generative modeling using Schrödinger bridges [0.22499166814992438]
本稿では,Schr"odinger BridgesとLangevin dynamicsを組み合わせた生成モデルを提案する。
我々のフレームワークは自然に条件付きサンプルを生成し、ベイズ推論問題に拡張することができる。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Practical and Asymptotically Exact Conditional Sampling in Diffusion Models [35.686996120862055]
条件生成法では,タスク固有の訓練を必要とせず,幅広い条件分布の正確なサンプルを提供する必要がある。
重み付き粒子の集合をシミュレートすることで拡散モデルの条件分布をターゲットとした逐次モンテカルロアルゴリズムであるTwisted Diffusion Sampler(TDS)を導入する。
ベンチマークテストケースでは、TDSはフレキシブルなコンディショニング基準を可能にし、多くの場合、最先端の技術よりも優れています。
論文 参考訳(メタデータ) (2023-06-30T16:29:44Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。