論文の概要: Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.01289v1
- Date: Sun, 01 Feb 2026 15:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.697884
- Title: Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models
- Title(参考訳): 拡散モデルの学習後量子化のための勾配配向校正法
- Authors: Dung Anh Hoang, Cuong Pham anh Trung Le, Jianfei Cai, Toan Do,
- Abstract要約: トレーニング後の量子化は、サンプリングを加速し、拡散モデルのメモリオーバーヘッドを低減するための有望なソリューションとして現れる。
既存の拡散モデルのためのPTQ法は通常、タイムステップをまたいだキャリブレーションサンプルに均一な重みを適用している。
キャリブレーションサンプルに適切な重みを割り当てることで,これらの課題に対処する新しいPTQ手法を提案する。
- 参考スコア(独自算出の注目度): 23.145275091022313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have shown remarkable performance in image synthesis by progressively estimating a smooth transition from a Gaussian distribution of noise to a real image. Unfortunately, their practical deployment is limited by slow inference speed, high memory usage, and the computational demands of the noise estimation process. Post-training quantization (PTQ) emerges as a promising solution to accelerate sampling and reduce memory overhead for diffusion models. Existing PTQ methods for diffusion models typically apply uniform weights to calibration samples across timesteps, which is sub-optimal since data at different timesteps may contribute differently to the diffusion process. Additionally, due to varying activation distributions and gradients across timesteps, a uniform quantization approach is sub-optimal. Each timestep requires a different gradient direction for optimal quantization, and treating them equally can lead to conflicting gradients that degrade performance. In this paper, we propose a novel PTQ method that addresses these challenges by assigning appropriate weights to calibration samples. Specifically, our approach learns to assign optimal weights to calibration samples to align the quantized model's gradients across timesteps, facilitating the quantization process. Extensive experiments on CIFAR-10, LSUN-Bedrooms, and ImageNet demonstrate the superiority of our method compared to other PTQ methods for diffusion models.
- Abstract(参考訳): 拡散モデルは、ノイズのガウス分布から実画像への滑らかな遷移を段階的に推定することにより、画像合成において顕著な性能を示した。
残念なことに、彼らの実践的な展開は、低速な推測速度、高いメモリ使用量、およびノイズ推定プロセスの計算要求によって制限されている。
後トレーニング量子化(PTQ)は、サンプリングを加速し、拡散モデルのメモリオーバーヘッドを低減するための有望なソリューションとして現れる。
既存の拡散モデルのためのPTQ法は、通常、異なる時間ステップのデータが拡散過程に異なる寄与をする可能性があるため、時間ステップをまたいだキャリブレーションサンプルに一様ウェイトを適用する。
さらに、時間ステップにまたがる様々な活性化分布と勾配のため、一様量子化アプローチは準最適である。
各タイムステップは最適な量子化のために異なる勾配方向を必要とし、それらを等しく扱うと、性能を低下させる矛盾する勾配につながる。
本稿では,キャリブレーションサンプルに適切な重みを割り当てることで,これらの課題に対処する新しいPTQ手法を提案する。
具体的には,時間経過にまたがる量子化モデルの勾配を調整するために,キャリブレーションサンプルに最適な重みを割り当てることを学び,量子化プロセスを容易にする。
CIFAR-10, LSUN-Bedrooms, ImageNetの広汎な実験により, 拡散モデルにおける他のPTQ法と比較して, 提案手法の優位性を示した。
関連論文リスト
- LSGQuant: Layer-Sensitivity Guided Quantization for One-Step Diffusion Real-World Video Super-Resolution [52.627063566555194]
本稿では,一段階拡散に基づく実世界VSRのための層感度誘導量子化手法LSGQuantを紹介する。
本手法は,ビデオトークンのアクティベーションに適合する動的レンジ適応量子化器 (DRAQ) を備える。
提案手法は,完全精度のオリジンモデルに対してほぼ性能が良く,既存の量子化手法をはるかに上回っている。
論文 参考訳(メタデータ) (2026-02-03T06:53:19Z) - PQD: Post-training Quantization for Efficient Diffusion Models [4.809939957401427]
拡散モデル(PQD)のための新しい学習後量子化法を提案する。
提案手法は,完全精度拡散モデルを直接8ビット,4ビットモデルに量子化することができる。
論文 参考訳(メタデータ) (2024-12-30T19:55:59Z) - TCAQ-DM: Timestep-Channel Adaptive Quantization for Diffusion Models [49.65286242048452]
拡散モデル(TCAQ-DM)のためのタイムステップ・チャネル適応量子化法を提案する。
提案手法は,ほとんどの場合,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-21T16:57:54Z) - Arbitrary-steps Image Super-resolution via Diffusion Inversion [68.78628844966019]
本研究では,拡散インバージョンに基づく新しい画像超解像(SR)手法を提案する。
本研究では,拡散モデルの中間状態を構築するための部分雑音予測戦略を設計する。
トレーニングが完了すると、このノイズ予測器を使用して、拡散軌道に沿ってサンプリングプロセスを部分的に初期化し、望ましい高分解能結果を生成する。
論文 参考訳(メタデータ) (2024-12-12T07:24:13Z) - Beta Sampling is All You Need: Efficient Image Generation Strategy for Diffusion Models using Stepwise Spectral Analysis [22.02829139522153]
拡散過程の画像スペクトル解析に基づく効率的な時間ステップサンプリング法を提案する。
従来の均一分布に基づく時間ステップサンプリングの代わりに,ベータ分布のようなサンプリング手法を導入する。
我々の仮説では、あるステップは画像の内容に大きな変化を示すが、他のステップは最小限に寄与する。
論文 参考訳(メタデータ) (2024-07-16T20:53:06Z) - Timestep-Aware Correction for Quantized Diffusion Models [28.265582848911574]
本稿では,量子化誤差を動的に補正する量子化拡散モデルの時間ステップ対応補正法を提案する。
提案手法を低精度拡散モデルに応用することにより,出力品質の大幅な向上が期待できる。
論文 参考訳(メタデータ) (2024-07-04T13:22:31Z) - EDA-DM: Enhanced Distribution Alignment for Post-Training Quantization of Diffusion Models [8.742501879586309]
量子化はモデルの複雑性を効果的に低減し、後学習量子化(PTQ)は拡散モデルの圧縮と加速に非常に有望である。
既存のPTQ法は, キャリブレーションサンプルレベルと再構成出力レベルの両方の分布ミスマッチ問題に悩まされている。
本稿では,上記の問題に効率的に対処する標準化されたPTQ手法であるEDA-DMを提案する。
論文 参考訳(メタデータ) (2024-01-09T14:42:49Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - Towards Accurate Post-training Quantization for Diffusion Models [73.19871905102545]
本稿では,効率的な画像生成のための拡散モデル(ADP-DM)の高精度なデータフリーポストトレーニング量子化フレームワークを提案する。
提案手法は, 拡散モデルの学習後の量子化を, 同様の計算コストで, 非常に大きなマージンで高速化する。
論文 参考訳(メタデータ) (2023-05-30T04:00:35Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。