論文の概要: Post Training Quantization for Efficient Dataset Condensation
- arxiv url: http://arxiv.org/abs/2603.13346v1
- Date: Sat, 07 Mar 2026 09:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:57.787722
- Title: Post Training Quantization for Efficient Dataset Condensation
- Title(参考訳): 効率的なデータセット凝縮のためのポストトレーニング量子化
- Authors: Linh-Tam Tran, Sung-Ho Bae,
- Abstract要約: 本稿では,情報損失を最小限に抑えた局所化量子化を実現するための,新しいEmphpatchベースのポストトレーニング量子化手法を提案する。
本手法は,様々な直流法により生成された合成画像に適用可能なプラグアンドプレイフレームワークである。
- 参考スコア(独自算出の注目度): 7.9166691228067565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset Condensation (DC) distills knowledge from large datasets into smaller ones, accelerating training and reducing storage requirements. However, despite notable progress, prior methods have largely overlooked the potential of quantization for further reducing storage costs. In this paper, we take the first step to explore post-training quantization in dataset condensation, demonstrating its effectiveness in reducing storage size while maintaining representation quality without requiring expensive training cost. However, we find that at extremely low bit-widths (e.g., 2-bit), conventional quantization leads to substantial degradation in representation quality, negatively impacting the networks trained on these data. To address this, we propose a novel \emph{patch-based post-training quantization} approach that ensures localized quantization with minimal loss of information. To reduce the overhead of quantization parameters, especially for small patch sizes, we employ quantization-aware clustering to identify similar patches and subsequently aggregate them for efficient quantization. Furthermore, we introduce a refinement module to align the distribution between original images and their dequantized counterparts, compensating for quantization errors. Our method is a plug-and-play framework that can be applied to synthetic images generated by various DC methods. Extensive experiments across diverse benchmarks including CIFAR-10/100, Tiny ImageNet, and ImageNet subsets demonstrate that our method consistently outperforms prior works under the same storage constraints. Notably, our method nearly \textbf{doubles the test accuracy} of existing methods at extreme compression regimes (e.g., 26.0\% $\rightarrow$ 54.1\% for DM at IPC=1), while operating directly on 2-bit images without additional distillation.
- Abstract(参考訳): Dataset Condensation (DC)は、大規模なデータセットからより小さなデータセットに知識を蒸留し、トレーニングを加速し、ストレージ要件を低減します。
しかし、顕著な進歩にもかかわらず、以前の手法はストレージコストをさらに削減するための量子化の可能性をほとんど見落としていた。
本稿では,データセットの凝縮における後トレーニング量子化の第一段階として,高コストのトレーニングコストを必要とせず,表現品質を維持しつつ,記憶容量を削減できることを実証する。
しかし、非常に低ビット幅(例: 2ビット)では、従来の量子化は表現品質を著しく低下させ、これらのデータに基づいてトレーニングされたネットワークに悪影響を及ぼす。
そこで本研究では,情報損失を最小限に抑えた局所化量子化を実現するための,新しいemph{patch-based post-training Quantization}アプローチを提案する。
量子化パラメータのオーバーヘッドを低減するため、特に小さなパッチサイズでは、量子化を意識したクラスタリングを用いて類似のパッチを識別し、それらを効率的な量子化のために集約する。
さらに,原画像とその復号化画像間の分布を調整し,量子化誤差を補償する改良モジュールを導入する。
本手法は,様々な直流法により生成された合成画像に適用可能なプラグイン・アンド・プレイ・フレームワークである。
CIFAR-10/100、Tiny ImageNet、ImageNetサブセットなど、さまざまなベンチマークの広範な実験により、我々のメソッドは、同じストレージ制約下での先行処理を一貫して上回ることを示した。
IPC=1 で DM に対して 26.0 % $\rightarrow$ 54.1 % である) で既存の手法の試験精度をほぼ2倍にし, 追加蒸留なしで2ビット画像を直接操作する。
関連論文リスト
- Adaptive Dataset Quantization: A New Direction for Dataset Pruning [0.2578242050187029]
本稿では,資源制約エッジデバイスにおける大規模データセットのストレージと通信コストの課題に対処する。
サンプル内冗長性を低減するための新しいデータセット量子化手法を提案する。
論文 参考訳(メタデータ) (2025-11-28T04:28:20Z) - MPQ-DMv2: Flexible Residual Mixed Precision Quantization for Low-Bit Diffusion Models with Temporal Distillation [74.34220141721231]
我々は,textbfMixed textbfPrecision textbfQuantizationフレームワークを改良したMPQ-DMv2を提案する。
論文 参考訳(メタデータ) (2025-07-06T08:16:50Z) - PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [95.98801201266099]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - Quantization-aware Matrix Factorization for Low Bit Rate Image Compression [8.009813033356478]
画像圧縮は効率的な伝送と保存に不可欠である。
本稿では、量子化対応行列分解法(QMF)を導入し、新しい損失画像圧縮法を提案する。
我々の手法は、JPEGを低ビットレートで0.25ビット/ピクセル(bpp)以下で連続的に上回り、高いビットレートで比較する。
論文 参考訳(メタデータ) (2024-08-22T19:08:08Z) - Reclaiming Residual Knowledge: A Novel Paradigm to Low-Bit Quantization [41.94295877935867]
本稿では、畳み込みニューラルネットワーク(ConvNets)内のアーキテクチャ探索問題として最適量子化をフレーミングすることにより、低ビット(すなわち4ビット以下)量子化における新しいパラダイムを探求する。
textbfCoRaと呼ばれる我々のフレームワークは、低ランクアダプタの最適アーキテクチャを探索する。
textbfCoRaは、最先端の量子化対応トレーニングとトレーニング後の量子化ベースラインの両方に対して、同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-01T21:27:31Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression [87.5604418100301]
キー値(KV)キャッシングは,大規模言語モデルの推論を高速化する重要な手法である。
既存の手法はしばしば精度を損なうか、キャリブレーションのために余分なデータを必要とする。
テンソル分解法に基づく新しいデータフリー低ビット量子化手法である textbfDecoQuant を導入する。
論文 参考訳(メタデータ) (2024-05-21T08:35:10Z) - DAQ: Distribution-Aware Quantization for Deep Image Super-Resolution
Networks [49.191062785007006]
画像超解像のための深い畳み込みニューラルネットワークの定量化は、計算コストを大幅に削減する。
既存の作業は、4ビット以下の超低精度の厳しい性能低下に苦しむか、または性能を回復するために重い微調整プロセスを必要とします。
高精度なトレーニングフリー量子化を実現する新しい分散認識量子化方式(DAQ)を提案する。
論文 参考訳(メタデータ) (2020-12-21T10:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。