論文の概要: HarmoQ: Harmonized Post-Training Quantization for High-Fidelity Image
- arxiv url: http://arxiv.org/abs/2511.05868v1
- Date: Sat, 08 Nov 2025 05:53:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.626857
- Title: HarmoQ: Harmonized Post-Training Quantization for High-Fidelity Image
- Title(参考訳): HarmoQ:高忠実度画像のための高調波後量子化
- Authors: Hongjun Wang, Jiyuan Chen, Xuan Song, Yinqiang Zheng,
- Abstract要約: HarmoQは3つの相乗的なステップを通じて、コンポーネント間の量子化を調和させる統合フレームワークである。
HarmoQは2ビットのSet5で0.46dBの先行技術より優れている。
この研究は、超高分解能量子化における重み-活性化結合の最初の体系的解析を提供する。
- 参考スコア(独自算出の注目度): 41.75267686720313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-training quantization offers an efficient pathway to deploy super-resolution models, yet existing methods treat weight and activation quantization independently, missing their critical interplay. Through controlled experiments on SwinIR, we uncover a striking asymmetry: weight quantization primarily degrades structural similarity, while activation quantization disproportionately affects pixel-level accuracy. This stems from their distinct roles--weights encode learned restoration priors for textures and edges, whereas activations carry input-specific intensity information. Building on this insight, we propose HarmoQ, a unified framework that harmonizes quantization across components through three synergistic steps: structural residual calibration proactively adjusts weights to compensate for activation-induced detail loss, harmonized scale optimization analytically balances quantization difficulty via closed-form solutions, and adaptive boundary refinement iteratively maintains this balance during optimization. Experiments show HarmoQ achieves substantial gains under aggressive compression, outperforming prior art by 0.46 dB on Set5 at 2-bit while delivering 3.2x speedup and 4x memory reduction on A100 GPUs. This work provides the first systematic analysis of weight-activation coupling in super-resolution quantization and establishes a principled solution for efficient high-quality image restoration.
- Abstract(参考訳): ポストトレーニング量子化(英語版)は超解像モデルを展開するための効率的な経路を提供するが、既存の方法は重み付けとアクティベーション量子化を独立に扱い、それらの重要な相互作用を欠いている。
重み量子化は主に構造的類似性を低下させ、アクティベーション量子化はピクセルレベルの精度に不均衡に影響を及ぼす。
これは、学習したテクスチャとエッジの復元をエンコードするウェイトが、アクティベーションは入力固有の強度情報を持っているのに対して、それぞれ異なる役割に由来する。
構造的残留校正は、活性化によって引き起こされる詳細損失を補うために重みを積極的に調整し、調和されたスケール最適化は、閉形式解による量子化の難しさを解析的にバランスさせ、適応境界修正は、最適化の間、反復的にこのバランスを維持する。
実験の結果、HarmoQはアグレッシブ圧縮の下で大幅に向上し、2ビットのSet5では0.46dB、A100 GPUでは3.2倍のスピードアップと4倍のメモリ削減を実現している。
この研究は、超高分解能量子化における重み-活性化結合の最初の体系的解析を提供し、高画質画像復元のための原理的解を確立した。
関連論文リスト
- CAGE: Curvature-Aware Gradient Estimation For Accurate Quantization-Aware Training [73.46600457802693]
本稿では,量子化による損失に対応する新しい手法を提案する。
CAGEは、同様の計算コストで、精度の観点から最先端の手法を大幅に改善する。
LlamaモデルのQAT事前トレーニングでは、CAGEは4ビット(W4A4)で達成された精度と事前のベストメソッドとを一致させる。
論文 参考訳(メタデータ) (2025-10-21T16:33:57Z) - Optimizing Learned Image Compression on Scalar and Entropy-Constraint Quantization [8.95146413290727]
正しい量子化データに対する再トレーニングは、一様スカラーおよび特にエントロピー制約量子化に対して、一貫した符号化ゲインをもたらすことを示す。
Kodakテストセットでは、平均貯蓄率1%から2%、TecNickテストではBjontegaard-Deltaの2.2%に設定されている。
論文 参考訳(メタデータ) (2025-06-10T10:22:22Z) - Precision Neural Network Quantization via Learnable Adaptive Modules [27.323901068182234]
量子化アウェアトレーニング(QAT)は、モデルサイズを圧縮し、運用効率を向上させるニューラルネットワーク量子化技術である。
本稿では、適応ステップサイズ量子化(ASQ)と呼ばれる、効果的な学習可能な適応型ニューラルネットワーク量子化法を提案する。
論文 参考訳(メタデータ) (2025-04-24T05:46:25Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - QuEST: Low-bit Diffusion Model Quantization via Efficient Selective Finetuning [52.157939524815866]
本稿では,不均衡な活性化分布を量子化困難の原因として同定する。
我々は,これらの分布を,より量子化しやすいように微調整することで調整することを提案する。
本手法は3つの高解像度画像生成タスクに対して有効性を示す。
論文 参考訳(メタデータ) (2024-02-06T03:39:44Z) - CBQ: Cross-Block Quantization for Large Language Models [66.82132832702895]
ポストトレーニング量子化(PTQ)は、超低コストで大規模言語モデル(LLM)を圧縮する上で重要な役割を果たしている。
LLMのためのクロスブロック再構成に基づくPTQ手法CBQを提案する。
CBQはリコンストラクションスキームを使用してクロスブロック依存関係を採用し、エラーの蓄積を最小限に抑えるために複数のブロックにまたがる長距離依存関係を確立する。
論文 参考訳(メタデータ) (2023-12-13T07:56:27Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Quantized Proximal Averaging Network for Analysis Sparse Coding [23.080395291046408]
反復アルゴリズムをトレーニング可能なネットワークに展開し,量子化前にスパーシティの学習を容易にする。
圧縮画像回復と磁気共鳴画像再構成への応用を実証する。
論文 参考訳(メタデータ) (2021-05-13T12:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。