論文の概要: Convergence guarantee for consistency models
- arxiv url: http://arxiv.org/abs/2308.11449v1
- Date: Tue, 22 Aug 2023 13:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:16:19.282126
- Title: Convergence guarantee for consistency models
- Title(参考訳): 一貫性モデルに対する収束保証
- Authors: Junlong Lyu, Zhitang Chen, Shoubo Feng
- Abstract要約: 本稿では,新しい一段階生成モデルであるCM(Consistency Models)の収束保証について述べる。
スコアマッチングエラー、一貫性エラー、データ分布の滑らかさに関する基本的な前提の下で、CMは1ステップで任意の現実的なデータ分布から、小さな$W$エラーで効率的にサンプリングすることができる。
- 参考スコア(独自算出の注目度): 9.893455771918793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide the first convergence guarantees for the Consistency Models (CMs),
a newly emerging type of one-step generative models that can generate
comparable samples to those generated by Diffusion Models. Our main result is
that, under the basic assumptions on score-matching errors, consistency errors
and smoothness of the data distribution, CMs can efficiently sample from any
realistic data distribution in one step with small $W_2$ error. Our results (1)
hold for $L^2$-accurate score and consistency assumption (rather than
$L^\infty$-accurate); (2) do note require strong assumptions on the data
distribution such as log-Sobelev inequality; (3) scale polynomially in all
parameters; and (4) match the state-of-the-art convergence guarantee for
score-based generative models (SGMs). We also provide the result that the
Multistep Consistency Sampling procedure can further reduce the error comparing
to one step sampling, which support the original statement of "Consistency
Models, Yang Song 2023". Our result further imply a TV error guarantee when
take some Langevin-based modifications to the output distributions.
- Abstract(参考訳): 拡散モデルによって生成されたものと同等のサンプルを生成できる新しい1ステップ生成モデルのタイプである、一貫性モデル(cms)に対する最初の収束保証を提供する。
我々の主な成果は、スコアマッチングエラー、一貫性エラー、データ分布の滑らかさに関する基本的な前提の下で、CMはW_2$誤差を小さくして、任意の現実的なデータ分布から効率的にサンプリングできるということである。
その結果,(1)$L^2$-accurateスコアと整合性仮定($L^\infty$-accurateではなく),(2)log-Sobelev不等式などのデータ分布に強い仮定を必要とすること,(3)すべてのパラメータで多項式的にスケールすること,(4)スコアベース生成モデル(SGM)の最先端収束保証に適合すること,などが得られた。
また,マルチステップ一貫性サンプリング手法は,1ステップサンプリングに比べて誤差を更に低減し,その結果,「一貫性モデル,yang song 2023」の原文をサポートする。
出力分布にランゲヴィンに基づく修正を加えると,テレビのエラーが保証される。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Informed Correctors for Discrete Diffusion Models [32.87362154118195]
モデルで学習した情報を活用することにより、より確実に離散化誤差に対処できる情報修正系を提案する。
また,$k$-Gillespie'sも提案する。これは,各モデル評価をよりよく活用するサンプリングアルゴリズムで,$tau$-leapingの速度と柔軟性を引き続き享受する。
いくつかの実・合成データセットにおいて,情報付き修正器を用いた$k$-Gillespieは,より低い計算コストで高い品質のサンプルを確実に生成することを示す。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Learning Multivariate CDFs and Copulas using Tensor Factorization [39.24470798045442]
データの多変量分布を学習することは、統計学と機械学習における中核的な課題である。
本研究では,多変量累積分布関数(CDF)を学習し,混合確率変数を扱えるようにすることを目的とする。
混合確率変数の合同CDFの任意のグリッドサンプリング版は、単純ベイズモデルとして普遍表現を許容することを示す。
提案モデルの性能を,回帰,サンプリング,データ計算を含むいくつかの合成および実データおよびアプリケーションで実証する。
論文 参考訳(メタデータ) (2022-10-13T16:18:46Z) - Sampling is as easy as learning the score: theory for diffusion models
with minimal data assumptions [45.04514545004051]
スコアベース生成モデル(SGM)に対する収束保証を提供する。
また、臨界減衰ランゲヴィン拡散(CLD)に基づくSGMについても検討する。
論文 参考訳(メタデータ) (2022-09-22T17:55:01Z) - Convergence for score-based generative modeling with polynomial
complexity [9.953088581242845]
我々は、Scoreベースの生成モデルの背後にあるコアメカニックに対する最初の収束保証を証明した。
以前の作品と比較すると、時間的に指数関数的に増加するエラーや、次元の呪いに苦しむエラーは発生しない。
予測器・相関器はどちらの部分のみを使用するよりも収束性が高いことを示す。
論文 参考訳(メタデータ) (2022-06-13T14:57:35Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。