論文の概要: AccuQuant: Simulating Multiple Denoising Steps for Quantizing Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.20348v1
- Date: Thu, 23 Oct 2025 08:48:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.632097
- Title: AccuQuant: Simulating Multiple Denoising Steps for Quantizing Diffusion Models
- Title(参考訳): AccuQuant: 拡散モデルの量子化のための複数のデノイングステップのシミュレーション
- Authors: Seunghoon Lee, Jeongwoo Choi, Byunggwan Son, Jaehyeon Moon, Jeimin Jeon, Bumsub Ham,
- Abstract要約: 本稿では,拡散モデルのための新しい学習後量子化(PTQ)手法であるAccuQuantを提案する。
本研究では, 拡散モデルに対する量子化誤差がサンプリング過程におけるデノナイズ段階を超えて蓄積されることを解析的, 実証的に示す。
本稿では,各種タスクにおけるAccuQuantの有効性と有効性,および標準ベンチマーク上での拡散モデルについて述べる。
- 参考スコア(独自算出の注目度): 19.061996414950098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present in this paper a novel post-training quantization (PTQ) method, dubbed AccuQuant, for diffusion models. We show analytically and empirically that quantization errors for diffusion models are accumulated over denoising steps in a sampling process. To alleviate the error accumulation problem, AccuQuant minimizes the discrepancies between outputs of a full-precision diffusion model and its quantized version within a couple of denoising steps. That is, it simulates multiple denoising steps of a diffusion sampling process explicitly for quantization, accounting the accumulated errors over multiple denoising steps, which is in contrast to previous approaches to imitating a training process of diffusion models, namely, minimizing the discrepancies independently for each step. We also present an efficient implementation technique for AccuQuant, together with a novel objective, which reduces a memory complexity significantly from $\mathcal{O}(n)$ to $\mathcal{O}(1)$, where $n$ is the number of denoising steps. We demonstrate the efficacy and efficiency of AccuQuant across various tasks and diffusion models on standard benchmarks.
- Abstract(参考訳): 本稿では,拡散モデルのためのポストトレーニング量子化(PTQ)手法であるAccuQuantについて述べる。
本研究では, 拡散モデルに対する量子化誤差がサンプリング過程におけるデノナイズ段階を超えて蓄積されることを解析的, 実証的に示す。
誤り蓄積問題を緩和するため、AccuQuantは数ステップで完全精度拡散モデルの出力と量子化されたバージョンとの差を最小限に抑える。
すなわち、拡散サンプリングプロセスの複数のデノナイズステップを量子化のために明示的にシミュレートし、複数のデノナイズステップ上で蓄積した誤差を考慮し、従来の拡散モデルのトレーニングプロセス、すなわち各ステップで独立に相違を最小化するためのアプローチとは対照的である。
また、AcuQuantの効率的な実装手法として、新しい目的とともに、メモリの複雑さを$\mathcal{O}(n)$から$\mathcal{O}(1)$へと大幅に低減する。
本稿では,各種タスクにおけるAccuQuantの有効性と有効性,および標準ベンチマーク上での拡散モデルについて述べる。
関連論文リスト
- Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - EDA-DM: Enhanced Distribution Alignment for Post-Training Quantization of Diffusion Models [8.742501879586309]
量子化はモデルの複雑性を効果的に低減し、後学習量子化(PTQ)は拡散モデルの圧縮と加速に非常に有望である。
既存のPTQ法は, キャリブレーションサンプルレベルと再構成出力レベルの両方の分布ミスマッチ問題に悩まされている。
本稿では,上記の問題に効率的に対処する標準化されたPTQ手法であるEDA-DMを提案する。
論文 参考訳(メタデータ) (2024-01-09T14:42:49Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Noise Estimation for Generative Diffusion Models [91.22679787578438]
そこで本研究では,任意のステップの雑音パラメータを調整可能な,単純で汎用的な学習手法を提案する。
私たちのアプローチは計算コストが無視できるものです。
論文 参考訳(メタデータ) (2021-04-06T15:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。