論文の概要: Convergence Of Consistency Model With Multistep Sampling Under General Data Assumptions
- arxiv url: http://arxiv.org/abs/2505.03194v1
- Date: Tue, 06 May 2025 05:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.222344
- Title: Convergence Of Consistency Model With Multistep Sampling Under General Data Assumptions
- Title(参考訳): 一般データに基づくマルチステップサンプリングによる一貫性モデルの収束
- Authors: Yiding Chen, Yiyi Zhang, Owen Oertell, Wen Sun,
- Abstract要約: 自己整合性特性がトレーニング分布のほぼ下にある場合の整合性モデルの収束性について検討する。
私たちの分析では、軽度のデータ仮定しか必要とせず、フォワードプロセスのファミリーに適用される。
- 参考スコア(独自算出の注目度): 11.317363635566517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models accomplish remarkable success in data generation tasks across various domains. However, the iterative sampling process is computationally expensive. Consistency models are proposed to learn consistency functions to map from noise to data directly, which allows one-step fast data generation and multistep sampling to improve sample quality. In this paper, we study the convergence of consistency models when the self-consistency property holds approximately under the training distribution. Our analysis requires only mild data assumption and applies to a family of forward processes. When the target data distribution has bounded support or has tails that decay sufficiently fast, we show that the samples generated by the consistency model are close to the target distribution in Wasserstein distance; when the target distribution satisfies some smoothness assumption, we show that with an additional perturbation step for smoothing, the generated samples are close to the target distribution in total variation distance. We provide two case studies with commonly chosen forward processes to demonstrate the benefit of multistep sampling.
- Abstract(参考訳): 拡散モデルは、様々な領域にわたるデータ生成タスクにおいて顕著な成功を収める。
しかし、反復サンプリングプロセスは計算コストが高い。
一貫性モデルは、ノイズからデータに直接マップする一貫性関数を学習するために提案され、これにより1ステップの高速データ生成と複数ステップのサンプリングが可能となり、サンプルの品質が向上する。
本稿では,自己整合性特性がトレーニング分布のほぼ下にある場合の整合性モデルの収束性について検討する。
私たちの分析では、軽度のデータ仮定しか必要とせず、フォワードプロセスのファミリーに適用される。
対象データ分布が有界支持あるいは十分に高速に崩壊する尾部を有する場合, 一貫性モデルにより生成されたサンプルがワッサーシュタイン距離の目標分布に近接していること, 対象データ分布がいくつかの滑らかさ仮定を満たす場合, 加えて平滑化するための摂動ステップにより, 生成したサンプルが全変動距離の目標分布に近接していることを示す。
多段階サンプリングの利点を実証するために、一般的に選択される前方プロセスを用いた2つのケーススタディを提供する。
関連論文リスト
- Single-Step Consistent Diffusion Samplers [8.758218443992467]
既存のサンプリングアルゴリズムは通常、高品質なサンプルを作成するために多くの反復的なステップを必要とする。
単一ステップで高忠実度サンプルを生成するために設計された新しいサンプルクラスである,一貫した拡散サンプリングを導入している。
提案手法は,従来の拡散サンプリング装置で要求されるネットワーク評価の1%以下を用いて,高忠実度サンプルが得られることを示す。
論文 参考訳(メタデータ) (2025-02-11T14:25:52Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Unified Convergence Analysis for Score-Based Diffusion Models with Deterministic Samplers [49.1574468325115]
決定論的サンプリングのための統合収束分析フレームワークを提案する。
我々のフレームワークは$tilde O(d2/epsilon)$の反復複雑性を実現する。
また,Denoising Implicit Diffusion Models (DDIM) タイプのサンプルについて詳細な分析を行った。
論文 参考訳(メタデータ) (2024-10-18T07:37:36Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Informed Correctors for Discrete Diffusion Models [31.814439169033616]
本稿では, 近似誤差をより確実に対応させるために, 拡散モデルにより補正器が通知される予測器・補正器サンプリング方式を提案する。
トークン化された ImageNet 256x256 において、この手法はより少ないステップで優れたサンプルを生成し、離散拡散モデルのFIDスコアを改良した。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - From Points to Functions: Infinite-dimensional Representations in
Diffusion Models [23.916417852496608]
拡散に基づく生成モデルは、非構造的雑音を複雑な対象分布に反復的に伝達することを学ぶ。
異なる時間ステップからの情報コンテンツを組み合わせることで、下流のタスクをより正確に表現できることが示される。
論文 参考訳(メタデータ) (2022-10-25T05:30:53Z) - Convergence for score-based generative modeling with polynomial
complexity [9.953088581242845]
我々は、Scoreベースの生成モデルの背後にあるコアメカニックに対する最初の収束保証を証明した。
以前の作品と比較すると、時間的に指数関数的に増加するエラーや、次元の呪いに苦しむエラーは発生しない。
予測器・相関器はどちらの部分のみを使用するよりも収束性が高いことを示す。
論文 参考訳(メタデータ) (2022-06-13T14:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。