論文の概要: MPQ-Diff: Mixed Precision Quantization for Diffusion Models
- arxiv url: http://arxiv.org/abs/2412.00144v1
- Date: Thu, 28 Nov 2024 19:38:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:33.238348
- Title: MPQ-Diff: Mixed Precision Quantization for Diffusion Models
- Title(参考訳): MPQ-Diff:拡散モデルのための混合精密量子化
- Authors: Rocco Manz Maruzzelli, Basile Lewandowski, Lydia Y. Chen,
- Abstract要約: 固定ビット幅でのトレーニング拡散モデル(例えば、重みの4ビットとアクティベーションの8ビット)の定量化はサンプリング時間の短縮に有効である。
重み付けと活性化に異なるビット幅を割り当てる混合精度量子化スキームMPQ-Diffを提案する。
我々はLSUNとImageNetの混合精度を評価し、FIDは65.73から15.39、52.66から14.93に大きく改善した。
- 参考スコア(独自算出の注目度): 7.31503523340956
- License:
- Abstract: Diffusion models (DMs) generate remarkable high quality images via the stochastic denoising process, which unfortunately incurs high sampling time. Post-quantizing the trained diffusion models in fixed bit-widths, e.g., 4 bits on weights and 8 bits on activation, is shown effective in accelerating sampling time while maintaining the image quality. Motivated by the observation that the cross-layer dependency of DMs vary across layers and sampling steps, we propose a mixed precision quantization scheme, MPQ-Diff, which allocates different bit-width to the weights and activation of the layers. We advocate to use the cross-layer correlation of a given layer, termed network orthogonality metric, as a proxy to measure the relative importance of a layer per sampling step. We further adopt a uniform sampling scheme to avoid the excessive profiling overhead of estimating orthogonality across all time steps. We evaluate the proposed mixed-precision on LSUN and ImageNet, showing a significant improvement in FID from 65.73 to 15.39, and 52.66 to 14.93, compared to their fixed precision quantization, respectively.
- Abstract(参考訳): 拡散モデル (DM) は確率的復調法により優れた画質の画像を生成し, 残念ながらサンプリング時間が高い。
固定ビット幅, 重みの4ビット, アクティベーションの8ビットにおけるトレーニング拡散モデルの定量化は, 画像品質を維持しながらサンプリング時間の短縮に有効であることを示す。
DMの層間依存性が層間およびサンプリングステップによって異なるという観測により,各層の重みと活性化に異なるビット幅を割り当てる混合精度量子化スキームMPQ-Diffを提案する。
我々は、サンプリングステップ当たりのレイヤの相対的重要性を測定するためのプロキシとして、ネットワーク直交距離と呼ばれる与えられたレイヤの層間相関を用いることを提唱する。
さらに、全時間ステップにわたって直交性を推定する過度なプロファイリングオーバーヘッドを回避するために、一様サンプリング方式を採用する。
LSUN と ImageNet の混合精度を評価し,FID は 65.73 から 15.39 に,FID は 52.66 から 14.93 に大きく改善した。
関連論文リスト
- Thinking in Granularity: Dynamic Quantization for Image Super-Resolution by Intriguing Multi-Granularity Clues [16.254064282215033]
本稿では,画像の固有特性を活かしたグラニュラーDQを提案する。
グラニュラーDQは局所パッチの多粒度解析を行い、その情報密度をさらに探究する。
論文 参考訳(メタデータ) (2024-09-22T06:29:54Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - QNCD: Quantization Noise Correction for Diffusion Models [15.189069680672239]
拡散モデルは画像合成に革命をもたらし、品質と創造性の新しいベンチマークを設定した。
トレーニング後の量子化は、サンプルの品質を犠牲にしてサンプリングを加速するソリューションを提供する。
サンプリング過程を通して量子化ノイズを最小化することを目的とした量子化ノイズ補正方式(QNCD)を導入する。
論文 参考訳(メタデータ) (2024-03-28T04:24:56Z) - EDA-DM: Enhanced Distribution Alignment for Post-Training Quantization of Diffusion Models [4.21216544443537]
量子化はモデルの複雑性を効果的に低減し、後学習量子化(PTQ)は拡散モデルの圧縮と加速に非常に有望である。
既存の拡散モデルのPTQ法は, キャリブレーションサンプルレベルと再構成出力レベルの両方の分布ミスマッチ問題に悩まされている。
本稿では,拡散モデル(EDA-DM)の学習後量子化のための分散アライメントの強化について述べる。
論文 参考訳(メタデータ) (2024-01-09T14:42:49Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - Towards Accurate Post-training Quantization for Diffusion Models [73.19871905102545]
本稿では,効率的な画像生成のための拡散モデル(ADP-DM)の高精度なデータフリーポストトレーニング量子化フレームワークを提案する。
提案手法は, 拡散モデルの学習後の量子化を, 同様の計算コストで, 非常に大きなマージンで高速化する。
論文 参考訳(メタデータ) (2023-05-30T04:00:35Z) - Parallel Sampling of Diffusion Models [76.3124029406809]
拡散モデルは強力な生成モデルであるが、サンプリングが遅い。
そこで本研究では,複数のステップを並列にdenoisingすることで,事前学習した拡散モデルのサンプリングを高速化するParaDiGMSを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:59:42Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。