論文の概要: Q-Drift: Quantization-Aware Drift Correction for Diffusion Model Sampling
- arxiv url: http://arxiv.org/abs/2603.18095v1
- Date: Wed, 18 Mar 2026 10:19:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.761054
- Title: Q-Drift: Quantization-Aware Drift Correction for Diffusion Model Sampling
- Title(参考訳): Q-ドリフト:拡散モデルサンプリングのための量子化対応ドリフト補正
- Authors: Sooyoung Ryu, Mathieu Salzmann, Saqib Javed,
- Abstract要約: ポストトレーニング量子化(PTQ)は、大規模な拡散モデルを展開するための実践的な方法である。
本稿では,量子化誤差を暗黙の摂動として扱うQ-Driftを提案する。
Q-Driftは、キャリブレーションから時間的変動統計を推定し、実際には5つの完全精度/量子化キャリブレーションを必要とする。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-training quantization (PTQ) is a practical path to deploy large diffusion models, but quantization noise can accumulate over the denoising trajectory and degrade generation quality. We propose Q-Drift, a principled sampler-side correction that treats quantization error as an implicit stochastic perturbation on each denoising step and derives a marginal-distribution-preserving drift adjustment. Q-Drift estimates a timestep-wise variance statistic from calibration, in practice requiring as few as 5 paired full-precision/quantized calibration runs. The resulting sampler correction is plug-and-play with common samplers, diffusion models, and PTQ methods, while incurring negligible overhead at inference. Across six diverse text-to-image models (spanning DiT and U-Net), three samplers (Euler, flow-matching, DPM-Solver++), and two PTQ methods (SVDQuant, MixDQ), Q-Drift improves FID over the corresponding quantized baseline in most settings, with up to 4.59 FID reduction on PixArt-Sigma (SVDQuant W3A4), while preserving CLIP scores.
- Abstract(参考訳): ポストトレーニング量子化(PTQ)は、大規模な拡散モデルを展開するための実践的な方法であるが、量子化ノイズは減音軌道上に蓄積され、生成品質は低下する。
本稿では,Q-Driftを提案する。Q-Driftは,量子化誤差を各復調ステップにおける暗黙の確率的摂動として扱い,限界分布保存ドリフト補正を導出する。
Q-Driftは、キャリブレーションからタイムステップワイドのばらつき統計を推定し、実際には5対の完全精度/量子化キャリブレーションの実行を必要とする。
結果として得られたサンプリングの補正は、一般的なサンプリング、拡散モデル、PTQメソッドとプラグ&プレイされ、推論時に無視できないオーバーヘッドが生じる。
6つの多様なテキスト・ツー・イメージモデル(DiTとU-Net)、3つのサンプル(Euler、フローマッチング、DPM-Solver++)、2つのPTQメソッド(SVDQuant、MixDQ)、Q-Driftは、ほとんどの設定で対応する量子化されたベースラインよりもFIDを改善し、PixArt-Sigma(SVDQuant W3A4)では最大4.59 FID削減される。
関連論文リスト
- Q-Sched: Pushing the Boundaries of Few-Step Diffusion Models with Quantization-Aware Scheduling [17.912877295127355]
本稿では,モデル重みよりも拡散モデルスケジューラを改良した,ポストトレーニング量子化のための新しいパラダイムであるQ-Schedを紹介する。
Q-Schedはモデルサイズの4倍の精度で完全精度を達成する。
80,000以上のアノテーションを持つ大規模なユーザ調査では、FLUX.1[schnell]とSDXL-Turboの両方でQ-Schedの有効性が確認されている。
論文 参考訳(メタデータ) (2025-09-01T17:09:22Z) - Pioneering 4-Bit FP Quantization for Diffusion Models: Mixup-Sign Quantization and Timestep-Aware Fine-Tuning [14.145862114439831]
モデル量子化はウェイトとアクティベーションのビット幅を減らし、メモリ効率と推論速度を改善する。
既存の方法は、主に整数量子化と後学習量子化の微調整に基づいており、矛盾しない性能に悩まされている。
本稿では、まずモデル量子化に符号なしFP量子化を導入し、時間ステップ対応のLoRAとデノナイジング・ファクター損失アライメントを併用する混合符号浮動小数点量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T13:40:47Z) - MergeQuant: Accurate 4-bit Static Quantization of Large Language Models by Channel-wise Calibration [23.752021919501207]
本稿では,チャネルごとの静的量子化フレームワークであるMergeQuantを提案する。
MergeQuantは、量子化ステップマイグレーション(QSM)メソッドを通じて、チャネルごとの量子化ステップと対応するスケーリングと線形マッピングを統合する。
Llama-2-7Bモデルでは、MergeQuantはFP16ベースラインと比較してデコードで最大1.77倍、エンドツーエンドで最大2.06倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2025-03-07T04:52:28Z) - TCAQ-DM: Timestep-Channel Adaptive Quantization for Diffusion Models [49.65286242048452]
拡散モデル(TCAQ-DM)のためのタイムステップ・チャネル適応量子化法を提案する。
提案手法は,ほとんどの場合,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-21T16:57:54Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - QNCD: Quantization Noise Correction for Diffusion Models [15.189069680672239]
拡散モデルは画像合成に革命をもたらし、品質と創造性の新しいベンチマークを設定した。
トレーニング後の量子化は、サンプルの品質を犠牲にしてサンプリングを加速するソリューションを提供する。
サンプリング過程を通して量子化ノイズを最小化することを目的とした量子化ノイズ補正方式(QNCD)を導入する。
論文 参考訳(メタデータ) (2024-03-28T04:24:56Z) - PTQD: Accurate Post-Training Quantization for Diffusion Models [22.567863065523902]
拡散モデルの学習後の量子化は、モデルのサイズを著しく減らし、再学習することなくサンプリングプロセスを加速することができる。
既存のPTQ法を直接低ビット拡散モデルに適用することは、生成されたサンプルの品質を著しく損なう可能性がある。
本稿では,量子化復調過程における量子化雑音と拡散摂動雑音の統一的な定式化を提案する。
論文 参考訳(メタデータ) (2023-05-18T02:28:42Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。