論文の概要: PTQD: Accurate Post-Training Quantization for Diffusion Models
- arxiv url: http://arxiv.org/abs/2305.10657v4
- Date: Wed, 1 Nov 2023 08:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 17:41:50.617686
- Title: PTQD: Accurate Post-Training Quantization for Diffusion Models
- Title(参考訳): PTQD:拡散モデルのための正確な後処理量子化
- Authors: Yefei He, Luping Liu, Jing Liu, Weijia Wu, Hong Zhou, Bohan Zhuang
- Abstract要約: 拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
- 参考スコア(独自算出の注目度): 22.567863065523902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have recently dominated image synthesis tasks. However, the
iterative denoising process is expensive in computations at inference time,
making diffusion models less practical for low-latency and scalable real-world
applications. Post-training quantization (PTQ) of diffusion models can
significantly reduce the model size and accelerate the sampling process without
re-training. Nonetheless, applying existing PTQ methods directly to low-bit
diffusion models can significantly impair the quality of generated samples.
Specifically, for each denoising step, quantization noise leads to deviations
in the estimated mean and mismatches with the predetermined variance schedule.
As the sampling process proceeds, the quantization noise may accumulate,
resulting in a low signal-to-noise ratio (SNR) during the later denoising
steps. To address these challenges, we propose a unified formulation for the
quantization noise and diffusion perturbed noise in the quantized denoising
process. Specifically, we first disentangle the quantization noise into its
correlated and residual uncorrelated parts regarding its full-precision
counterpart. The correlated part can be easily corrected by estimating the
correlation coefficient. For the uncorrelated part, we subtract the bias from
the quantized results to correct the mean deviation and calibrate the denoising
variance schedule to absorb the excess variance resulting from quantization.
Moreover, we introduce a mixed-precision scheme for selecting the optimal
bitwidth for each denoising step. Extensive experiments demonstrate that our
method outperforms previous post-training quantized diffusion models, with only
a 0.06 increase in FID score compared to full-precision LDM-4 on ImageNet
256x256, while saving 19.9x bit operations. Code is available at
https://github.com/ziplab/PTQD.
- Abstract(参考訳): 拡散モデルは最近画像合成タスクを支配している。
しかし、反復的復調処理は推論時の計算に高価であり、低レイテンシでスケーラブルな実世界のアプリケーションでは拡散モデルが実用的でない。
拡散モデルのポストトレーニング量子化(PTQ)は、モデルのサイズを著しく減らし、再トレーニングせずにサンプリングプロセスを加速することができる。
それでも、既存のPTQ法を直接低ビット拡散モデルに適用することは、生成したサンプルの品質を著しく損なう可能性がある。
具体的には、分別ステップ毎に、量子化ノイズが推定平均の偏差を生じさせ、所定の分散スケジュールとミスマッチする。
サンプリングプロセスが進むにつれて、量子化ノイズが蓄積され、後の復調段階において低信号対雑音比(SNR)となる。
そこで本研究では, 量子化雑音と拡散摂動雑音を統一的に定式化する手法を提案する。
具体的には、まず量子化ノイズを、その完全精度に関する相関および残余の非相関部分に分解する。
相関係数を推定することにより、相関部を容易に補正することができる。
非相関部については、量子化結果からバイアスを減じて平均偏差を補正し、分別分散スケジュールを校正し、量子化によって生じる余分な分散を吸収する。
さらに,各段階で最適なビット幅を選択するための混合精度方式を提案する。
広範な実験により,imagenet 256x256 の完全な精度 ldm-4 と比較すると,前回のトレーニング後の量子化拡散モデルよりも優れており,fid スコアは 0.06 % 向上した。
コードはhttps://github.com/ziplab/ptqdで入手できる。
関連論文リスト
- Timestep-Aware Correction for Quantized Diffusion Models [28.265582848911574]
本稿では,量子化誤差を動的に補正する量子化拡散モデルの時間ステップ対応補正法を提案する。
提案手法を低精度拡散モデルに応用することにより,出力品質の大幅な向上が期待できる。
論文 参考訳(メタデータ) (2024-07-04T13:22:31Z) - QNCD: Quantization Noise Correction for Diffusion Models [15.189069680672239]
拡散モデルは画像合成に革命をもたらし、品質と創造性の新しいベンチマークを設定した。
トレーニング後の量子化は、サンプルの品質を犠牲にしてサンプリングを加速するソリューションを提供する。
サンプリング過程を通して量子化ノイズを最小化することを目的とした量子化ノイズ補正方式(QNCD)を導入する。
論文 参考訳(メタデータ) (2024-03-28T04:24:56Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - Towards Accurate Post-training Quantization for Diffusion Models [73.19871905102545]
本稿では,効率的な画像生成のための拡散モデル(ADP-DM)の高精度なデータフリーポストトレーニング量子化フレームワークを提案する。
提案手法は, 拡散モデルの学習後の量子化を, 同様の計算コストで, 非常に大きなマージンで高速化する。
論文 参考訳(メタデータ) (2023-05-30T04:00:35Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Error-aware Quantization through Noise Tempering [43.049102196902844]
量子化対応トレーニング(QAT)は、量子化エラーをシミュレートしながら、エンドタスクに関するモデルパラメータを最適化する。
本研究では,指数関数的に減衰する量子化・エラー認識ノイズと,学習可能なタスク損失勾配のスケールを組み込んで量子化演算子の効果を近似する。
本手法は, 従来の手法を0.5-1.2%絶対値で上回り, 均一な(非混合精度)量子化のための最先端トップ1分類精度を得る。
論文 参考訳(メタデータ) (2022-12-11T20:37:50Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。