論文の概要: QuantDemoire: Quantization with Outlier Aware for Image Demoiréing
- arxiv url: http://arxiv.org/abs/2510.04066v1
- Date: Sun, 05 Oct 2025 06:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.436454
- Title: QuantDemoire: Quantization with Outlier Aware for Image Demoiréing
- Title(参考訳): QuantDemoire: 画像復号化のための外部認識による量子化
- Authors: Zheng Chen, Kewei Zhang, Xiaoyang Liu, Weihang Zhang, Mengfan Wang, Yifan Fu, Yulun Zhang,
- Abstract要約: QuantDemoireは、トレーニング後の量子化フレームワークである。
サンプリングベースのレンジ推定を使用して、アクティベーション・アウトレイアを減らし、FP16の極端な重量を無視できるコストで保持する。
W4A4上の**4 dB**で既存の量子化法より優れている。
- 参考スコア(独自算出の注目度): 30.153102139469485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demoir\'eing aims to remove moir\'e artifacts that often occur in images. While recent deep learning-based methods have achieved promising results, they typically require substantial computational resources, limiting their deployment on edge devices. Model quantization offers a compelling solution. However, directly applying existing quantization methods to demoir\'eing models introduces severe performance degradation. The main reasons are distribution outliers and weakened representations in smooth regions. To address these issues, we propose QuantDemoire, a post-training quantization framework tailored to demoir\'eing. It contains two key components. **First}, we introduce an outlier-aware quantizer to reduce errors from outliers. It uses sampling-based range estimation to reduce activation outliers, and keeps a few extreme weights in FP16 with negligible cost. **Second**, we design a frequency-aware calibration strategy. It emphasizes low- and mid-frequency components during fine-tuning, which mitigates banding artifacts caused by low-bit quantization. Extensive experiments validate that our QuantDemoire achieves large reductions in parameters and computation while maintaining quality. Meanwhile, it outperforms existing quantization methods by over **4 dB** on W4A4. Code is released at: https://github.com/zhengchen1999/QuantDemoire.
- Abstract(参考訳): Demoir\'eingは、画像によく現れるmoir\'eアーティファクトを削除することを目的としている。
最近のディープラーニングベースの手法は有望な結果を得たが、それらは一般的に、エッジデバイスへのデプロイメントを制限する、相当な計算リソースを必要とする。
モデル量子化は魅力的な解決策を提供する。
しかし、既存の量子化手法をdemoir\'eingモデルに直接適用すると、性能が著しく低下する。
主な理由は、スムーズな領域における分布外れ値と弱化表現である。
これらの問題に対処するために、Digital\'eingに適したポストトレーニング量子化フレームワークであるQuantDemoireを提案する。
キーコンポーネントは2つある。
**第一に、外れ値からエラーを減らすために、外れ値対応の量子化器を導入する。
サンプリングベースのレンジ推定を使用して、アクティベーション・アウトレイアを減らし、FP16の極端な重量を無視できるコストで保持する。
**Second**,我々は周波数対応キャリブレーション戦略を設計する。
低ビット量子化によるバンドリングアーティファクトを緩和する微調整中の低周波成分と中周波成分を強調している。
大規模な実験により、QuantDemoireは、品質を維持しながらパラメータと計算の大幅な削減を実現している。
一方、W4A4上の**4 dB**で既存の量子化法より優れている。
コードはhttps://github.com/zhengchen 1999/QuantDemoire.comで公開されている。
関連論文リスト
- MPQ-DMv2: Flexible Residual Mixed Precision Quantization for Low-Bit Diffusion Models with Temporal Distillation [74.34220141721231]
我々は,textbfMixed textbfPrecision textbfQuantizationフレームワークを改良したMPQ-DMv2を提案する。
論文 参考訳(メタデータ) (2025-07-06T08:16:50Z) - QuantFace: Low-Bit Post-Training Quantization for One-Step Diffusion Face Restoration [109.89807858620242]
拡散モデルは顔修復において顕著な性能を発揮している。
拡散モデルの重い計算は、スマートフォンのようなデバイスにそれらを展開するのを困難にしている。
一段階拡散面復元モデルのための新しい低ビット量子化法であるQuantFaceを提案する。
論文 参考訳(メタデータ) (2025-06-01T03:52:59Z) - KurTail : Kurtosis-based LLM Quantization [51.24081396305435]
KurTailは、大規模言語モデルのアクティベートにおいて、アウトレーヤを緩和する、新しいトレーニング後の量子化スキームである。
MMLUの精度は13.3%向上し、Wikiの難易度はQuaRotに比べて15.5%低下している。
また、SpinQuantを2.6%のMMLUゲインで上回り、パープレキシティを2.9%削減し、トレーニングコストを削減した。
論文 参考訳(メタデータ) (2025-03-03T12:43:06Z) - CondiQuant: Condition Number Based Low-Bit Quantization for Image Super-Resolution [59.91470739501034]
画像超解像のための条件数に基づく低ビットポストトレーニング量子化であるCondiQuantを提案する。
CondiQuantは、計算オーバーヘッドを伴わずに、既存の最先端のポストトレーニング量子化手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2025-02-21T14:04:30Z) - ResQ: Mixed-Precision Quantization of Large Language Models with Low-Rank Residuals [10.860081994662645]
大規模言語モデル(LLM)の学習後の量子化は、推論時の計算コストを抑えるという約束を果たす。
本稿では,最先端技術をさらに推し進めるPTQ手法であるResQを提案する。
ResQは、様々なベンチマークにおいて、最近の一様および混合精度のPTQ法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-18T22:01:55Z) - LeanQuant: Accurate and Scalable Large Language Model Quantization with Loss-error-aware Grid [36.33062038680275]
大規模言語モデル(LLM)は、様々な領域において大きな可能性を示している。
トレーニング後の量子化は、メモリ要求を減らし、遅延をデコードするための有望なテクニックとして登場した。
正確で汎用的でスケーラブルな新しい量子化手法であるLeanQuantを提案する。
論文 参考訳(メタデータ) (2024-07-14T00:23:51Z) - ISQuant: apply squant to the real deployment [0.0]
量子化と復号化の組み合わせがモデルトレーニングに使われている理由を分析する。
8ビットモデルをデプロイするためのソリューションとしてISQuantを提案する。
論文 参考訳(メタデータ) (2024-07-05T15:10:05Z) - FrameQuant: Flexible Low-Bit Quantization for Transformers [25.569106620123346]
トランスフォーマーは多くのビジョンと自然言語処理タスクのための強力な基盤モデルのバックボーンです。
ポストトライニング量子化は、事前トレーニングされたモデルを変更し、それを8ビット以下に量子化する。
様々な実験を通して、トランスフォーマーモデルに対する(ほとんど)2ビット量子化は、大きな効率向上を約束することを示す。
論文 参考訳(メタデータ) (2024-03-10T04:01:49Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - Outlier Suppression: Pushing the Limit of Low-bit Transformer Language
Models [57.933500846742234]
最近の研究は、構造化された外れ値が量子化性能の重要なボトルネックであることを認識している。
本稿では,Gamma Migration と Token-Wise Clipping の2つのコンポーネントを含む外部抑制フレームワークを提案する。
このフレームワークは、アウトレイラを効果的に抑制し、プラグアンドプレイモードで使用することができる。
論文 参考訳(メタデータ) (2022-09-27T12:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。