論文の概要: Outlier-Aware Post-Training Quantization for Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2511.00682v1
- Date: Sat, 01 Nov 2025 19:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.891733
- Title: Outlier-Aware Post-Training Quantization for Image Super-Resolution
- Title(参考訳): 画像超解像のための検査後量子化の外部認識
- Authors: Hailing Wang, jianglin Lu, Yitian Zhang, Yun Fu,
- Abstract要約: QAT(quantization-aware training)やPTQ(post-training Quantization)といった量子化技術は、画像超解像(SR)ネットワークの推論加速に欠かせないものとなっている。
本稿では、各領域に独立に均一な量子化を適用し、ビット幅割り当てのバランスを改善するために、活性化を外れ値領域と高密度領域に分割する二重領域量子化戦略を提案する。
提案手法は,様々なSRネットワークやデータセットにまたがる既存のPTQ手法よりも優れており,少なくとも75スピードアップのシナリオではQAT手法に匹敵する性能を実現している。
- 参考スコア(独自算出の注目度): 36.37192976473005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantization techniques, including quantization-aware training (QAT) and post-training quantization (PTQ), have become essential for inference acceleration of image super-resolution (SR) networks. Compared to QAT, PTQ has garnered significant attention as it eliminates the need for ground truth and model retraining. However, existing PTQ methods for SR often fail to achieve satisfactory performance as they overlook the impact of outliers in activation. Our empirical analysis reveals that these prevalent activation outliers are strongly correlated with image color information, and directly removing them leads to significant performance degradation. Motivated by this, we propose a dual-region quantization strategy that partitions activations into an outlier region and a dense region, applying uniform quantization to each region independently to better balance bit-width allocation. Furthermore, we observe that different network layers exhibit varying sensitivities to quantization, leading to different levels of performance degradation. To address this, we introduce sensitivity-aware finetuning that encourages the model to focus more on highly sensitive layers, further enhancing quantization performance. Extensive experiments demonstrate that our method outperforms existing PTQ approaches across various SR networks and datasets, while achieving performance comparable to QAT methods in most scenarios with at least a 75 speedup.
- Abstract(参考訳): QAT(quantization-aware training)やPTQ(post-training Quantization)といった量子化技術は、画像超解像(SR)ネットワークの推論加速に欠かせないものとなっている。
QATと比較すると、PTQは真理とモデル再訓練の必要性を排除し、大きな注目を集めている。
しかし、既存のSRのPTQメソッドは、アクティベーションにおける外れ値の影響を見落としているため、満足のいく性能を達成できないことが多い。
実験により,これらのアクティベーション異常値が画像色情報と強く相関していることが判明した。
そこで本研究では,各領域に独立に均一な量子化を適用し,ビット幅割り当てのバランスを改善するために,アクティベーションを外れ値領域と高密度領域に分割する2領域量子化戦略を提案する。
さらに、異なるネットワーク層が量子化に対する様々な感度を示し、異なるレベルの性能劣化を引き起こすことを観察する。
そこで本研究では,高感度層に重きを置く感度認識ファインタニングを導入し,量子化性能の向上を図る。
広範囲な実験により,本手法は様々なSRネットワークやデータセットにまたがる既存のPTQ手法よりも優れており,少なくとも75スピードアップのシナリオではQAT手法に匹敵する性能を実現していることがわかった。
関連論文リスト
- Distribution-Aware Hadamard Quantization for Hardware-Efficient Implicit Neural Representations [5.963994087619295]
Inlicit Neural Representation (INR)は、複雑なアクティベーション機能を持つマルチ層パーセプトロン(MLP)を用いて離散信号を符号化する。
以前のINR量子化アプローチは、主に重量量子化に焦点を合わせており、限られたハードウェアセーブしか提供していない。
本稿では,INRの重みとアクティベーションの両方を対象とする分布を意識した新しいアダマール量子化スキームであるDHQを提案する。
論文 参考訳(メタデータ) (2025-08-19T03:16:53Z) - FIMA-Q: Post-Training Quantization for Vision Transformers by Fisher Information Matrix Approximation [55.12070409045766]
ポストトレーニング量子化(PTQ)は近年,費用対効果と有望なモデル圧縮パラダイムとして注目されている。
ビジョン変換器(ViT)の現在のPTQ法は、特に低ビット量子化において、精度が著しく低下している。
論文 参考訳(メタデータ) (2025-06-13T07:57:38Z) - Precision Neural Network Quantization via Learnable Adaptive Modules [27.323901068182234]
量子化アウェアトレーニング(QAT)は、モデルサイズを圧縮し、運用効率を向上させるニューラルネットワーク量子化技術である。
本稿では、適応ステップサイズ量子化(ASQ)と呼ばれる、効果的な学習可能な適応型ニューラルネットワーク量子化法を提案する。
論文 参考訳(メタデータ) (2025-04-24T05:46:25Z) - Stabilizing Quantization-Aware Training by Implicit-Regularization on Hessian Matrix [0.7261171488281837]
損失の急激な状況は、劇的なパフォーマンス低下を招き、不安定を引き起こす重要な要因であることがわかった。
本稿では, 定量化モデルに特徴蒸留法を適用し, 一般化するためのFPQを提案する。
論文 参考訳(メタデータ) (2025-03-14T07:56:20Z) - QuEST: Low-bit Diffusion Model Quantization via Efficient Selective Finetuning [52.157939524815866]
本稿では,不均衡な活性化分布を量子化困難の原因として同定する。
我々は,これらの分布を,より量子化しやすいように微調整することで調整することを提案する。
本手法は3つの高解像度画像生成タスクに対して有効性を示す。
論文 参考訳(メタデータ) (2024-02-06T03:39:44Z) - Overcoming Distribution Mismatch in Quantizing Image Super-Resolution Networks [53.23803932357899]
量子化は画像超解像(SR)ネットワークの精度を低下させる。
既存の作業は、テスト時間中に量子化範囲を動的に適応することで、この分散ミスマッチ問題に対処する。
本稿では,SRネットワークにおける分散ミスマッチ問題を効果的に克服する量子化対応学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:50:01Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。