論文の概要: Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.01289v1
- Date: Sun, 01 Feb 2026 15:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.697884
- Title: Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models
- Title(参考訳): 拡散モデルの学習後量子化のための勾配配向校正法
- Authors: Dung Anh Hoang, Cuong Pham anh Trung Le, Jianfei Cai, Toan Do,
- Abstract要約: トレーニング後の量子化は、サンプリングを加速し、拡散モデルのメモリオーバーヘッドを低減するための有望なソリューションとして現れる。
既存の拡散モデルのためのPTQ法は通常、タイムステップをまたいだキャリブレーションサンプルに均一な重みを適用している。
キャリブレーションサンプルに適切な重みを割り当てることで,これらの課題に対処する新しいPTQ手法を提案する。
- 参考スコア(独自算出の注目度): 23.145275091022313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have shown remarkable performance in image synthesis by progressively estimating a smooth transition from a Gaussian distribution of noise to a real image. Unfortunately, their practical deployment is limited by slow inference speed, high memory usage, and the computational demands of the noise estimation process. Post-training quantization (PTQ) emerges as a promising solution to accelerate sampling and reduce memory overhead for diffusion models. Existing PTQ methods for diffusion models typically apply uniform weights to calibration samples across timesteps, which is sub-optimal since data at different timesteps may contribute differently to the diffusion process. Additionally, due to varying activation distributions and gradients across timesteps, a uniform quantization approach is sub-optimal. Each timestep requires a different gradient direction for optimal quantization, and treating them equally can lead to conflicting gradients that degrade performance. In this paper, we propose a novel PTQ method that addresses these challenges by assigning appropriate weights to calibration samples. Specifically, our approach learns to assign optimal weights to calibration samples to align the quantized model's gradients across timesteps, facilitating the quantization process. Extensive experiments on CIFAR-10, LSUN-Bedrooms, and ImageNet demonstrate the superiority of our method compared to other PTQ methods for diffusion models.
- Abstract(参考訳): 拡散モデルは、ノイズのガウス分布から実画像への滑らかな遷移を段階的に推定することにより、画像合成において顕著な性能を示した。
残念なことに、彼らの実践的な展開は、低速な推測速度、高いメモリ使用量、およびノイズ推定プロセスの計算要求によって制限されている。
後トレーニング量子化(PTQ)は、サンプリングを加速し、拡散モデルのメモリオーバーヘッドを低減するための有望なソリューションとして現れる。
既存の拡散モデルのためのPTQ法は、通常、異なる時間ステップのデータが拡散過程に異なる寄与をする可能性があるため、時間ステップをまたいだキャリブレーションサンプルに一様ウェイトを適用する。
さらに、時間ステップにまたがる様々な活性化分布と勾配のため、一様量子化アプローチは準最適である。
各タイムステップは最適な量子化のために異なる勾配方向を必要とし、それらを等しく扱うと、性能を低下させる矛盾する勾配につながる。
本稿では,キャリブレーションサンプルに適切な重みを割り当てることで,これらの課題に対処する新しいPTQ手法を提案する。
具体的には,時間経過にまたがる量子化モデルの勾配を調整するために,キャリブレーションサンプルに最適な重みを割り当てることを学び,量子化プロセスを容易にする。
CIFAR-10, LSUN-Bedrooms, ImageNetの広汎な実験により, 拡散モデルにおける他のPTQ法と比較して, 提案手法の優位性を示した。
関連論文リスト
- EDA-DM: Enhanced Distribution Alignment for Post-Training Quantization of Diffusion Models [8.742501879586309]
量子化はモデルの複雑性を効果的に低減し、後学習量子化(PTQ)は拡散モデルの圧縮と加速に非常に有望である。
既存のPTQ法は, キャリブレーションサンプルレベルと再構成出力レベルの両方の分布ミスマッチ問題に悩まされている。
本稿では,上記の問題に効率的に対処する標準化されたPTQ手法であるEDA-DMを提案する。
論文 参考訳(メタデータ) (2024-01-09T14:42:49Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - Towards Accurate Post-training Quantization for Diffusion Models [73.19871905102545]
本稿では,効率的な画像生成のための拡散モデル(ADP-DM)の高精度なデータフリーポストトレーニング量子化フレームワークを提案する。
提案手法は, 拡散モデルの学習後の量子化を, 同様の計算コストで, 非常に大きなマージンで高速化する。
論文 参考訳(メタデータ) (2023-05-30T04:00:35Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。