論文の概要: Quantizing Diffusion Models from a Sampling-Aware Perspective
- arxiv url: http://arxiv.org/abs/2505.02242v1
- Date: Sun, 04 May 2025 20:50:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.506
- Title: Quantizing Diffusion Models from a Sampling-Aware Perspective
- Title(参考訳): サンプリング・アウェアの観点からの拡散モデルの量子化
- Authors: Qian Zeng, Jie Song, Yuanyu Wan, Huiqiong Wang, Mingli Song,
- Abstract要約: 本稿では,混合次軌道アライメント手法を考案したサンプリング対応量子化手法を提案する。
複数のデータセットにまたがるスパースステップ高速サンプリング実験により,本手法は高速サンプリング器の高速収束特性を保っていることが示された。
- 参考スコア(独自算出の注目度): 43.95032520555463
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Diffusion models have recently emerged as the dominant approach in visual generation tasks. However, the lengthy denoising chains and the computationally intensive noise estimation networks hinder their applicability in low-latency and resource-limited environments. Previous research has endeavored to address these limitations in a decoupled manner, utilizing either advanced samplers or efficient model quantization techniques. In this study, we uncover that quantization-induced noise disrupts directional estimation at each sampling step, further distorting the precise directional estimations of higher-order samplers when solving the sampling equations through discretized numerical methods, thereby altering the optimal sampling trajectory. To attain dual acceleration with high fidelity, we propose a sampling-aware quantization strategy, wherein a Mixed-Order Trajectory Alignment technique is devised to impose a more stringent constraint on the error bounds at each sampling step, facilitating a more linear probability flow. Extensive experiments on sparse-step fast sampling across multiple datasets demonstrate that our approach preserves the rapid convergence characteristics of high-speed samplers while maintaining superior generation quality. Code will be made publicly available soon.
- Abstract(参考訳): 拡散モデルは近年、視覚生成タスクにおいて支配的なアプローチとして現れている。
しかし、長大なデノイングチェーンと計算集約的なノイズ推定ネットワークは、低レイテンシおよびリソース制限環境での適用性を妨げている。
従来の研究では、これらの制限を分離した方法で解決し、高度なサンプルや効率的なモデル量子化技術を用いている。
本研究では,各サンプリングステップにおいて,量子化誘起ノイズが方向推定を阻害することを明らかにするとともに,離散化数値法を用いてサンプリング方程式を解く際に,高階サンプリングの正確な方向推定を歪曲し,最適なサンプリング軌道を変化させる。
高忠実度でデュアルアクセラレーションを実現するために,各サンプリングステップにおける誤差境界により厳密な制約を課し,より線形な確率フローを容易にする混合次軌道アライメント手法を考案したサンプリング対応量子化戦略を提案する。
複数のデータセットにまたがるスパースステップ高速サンプリング実験により, 高速サンプリング器の高速収束特性を保ちながら, 優れた生成品質を維持した。
コードはまもなく公開される予定だ。
関連論文リスト
- Neural Flow Samplers with Shortcut Models [19.81513273510523]
流れに基づくサンプルは連続性方程式を満たす速度場を学習してサンプルを生成する。
重要サンプリングは近似を提供するが、高い分散に悩まされる。
論文 参考訳(メタデータ) (2025-02-11T07:55:41Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Stable generative modeling using Schrödinger bridges [0.22499166814992438]
本稿では,Schr"odinger BridgesとLangevin dynamicsを組み合わせた生成モデルを提案する。
我々のフレームワークは自然に条件付きサンプルを生成し、ベイズ推論問題に拡張することができる。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。