論文の概要: Picking Up Quantization Steps for Compressed Image Classification
- arxiv url: http://arxiv.org/abs/2304.10714v1
- Date: Fri, 21 Apr 2023 02:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 16:07:57.927727
- Title: Picking Up Quantization Steps for Compressed Image Classification
- Title(参考訳): 圧縮画像分類のための量子化ステップのピックアップ
- Authors: Li Ma, Peixi Peng, Guangyao Chen, Yifan Zhao, Siwei Dong and Yonghong
Tian
- Abstract要約: 圧縮された画像に対するディープニューラルネットワークの感度を低下させるために、圧縮されたファイルに格納された使い捨てのコーディングパラメータを無視して取り出すことができると主張している。
具体的には、画像の分類を容易にするために、代表的なパラメータの1つ、量子化ステップを使用する。
提案手法は, CIFAR-10, CIFAR-100, ImageNetの分類ネットワークの性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 41.065275887759945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sensitivity of deep neural networks to compressed images hinders their
usage in many real applications, which means classification networks may fail
just after taking a screenshot and saving it as a compressed file. In this
paper, we argue that neglected disposable coding parameters stored in
compressed files could be picked up to reduce the sensitivity of deep neural
networks to compressed images. Specifically, we resort to using one of the
representative parameters, quantization steps, to facilitate image
classification. Firstly, based on quantization steps, we propose a novel
quantization aware confidence (QAC), which is utilized as sample weights to
reduce the influence of quantization on network training. Secondly, we utilize
quantization steps to alleviate the variance of feature distributions, where a
quantization aware batch normalization (QABN) is proposed to replace batch
normalization of classification networks. Extensive experiments show that the
proposed method significantly improves the performance of classification
networks on CIFAR-10, CIFAR-100, and ImageNet. The code is released on
https://github.com/LiMaPKU/QSAM.git
- Abstract(参考訳): 圧縮された画像に対するディープニューラルネットワークの感度は、多くの実アプリケーションでの使用を妨げるため、分類ネットワークはスクリーンショットを撮って圧縮されたファイルとして保存した直後に失敗する可能性がある。
本稿では,圧縮された画像に対するディープニューラルネットワークの感度を低下させるために,圧縮されたファイルに格納される使い捨ての符号化パラメータを欠くことを議論する。
具体的には,代表的なパラメータの一つである量子化ステップを使用して画像分類を行う。
まず,量子化ステップに基づき,量子化がネットワークトレーニングに与える影響を低減すべく,サンプル重みとして利用する量子化認識信頼度(qac)を提案する。
次に,分類ネットワークのバッチ正規化を置き換えるために,量子化対応バッチ正規化(QABN)を提案する。
実験の結果,CIFAR-10,CIFAR-100,ImageNetの分類ネットワークの性能は有意に向上した。
コードはhttps://github.com/LiMaPKU/QSAM.gitで公開されている。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - AdaBM: On-the-Fly Adaptive Bit Mapping for Image Super-Resolution [53.23803932357899]
我々は、処理時間を数時間から秒に短縮する最初のオンザフライ適応量子化フレームワークを導入する。
我々は,従来の適応量子化法と競合する性能を実現し,処理時間をx2000で高速化する。
論文 参考訳(メタデータ) (2024-04-04T08:37:27Z) - Neural Image Compression with Quantization Rectifier [7.097091519502871]
我々は,画像特徴相関を利用した画像圧縮のための新しい量子化法(QR)を開発し,量子化の影響を緩和する。
提案手法は,量子化された特徴量から未知の特徴量を予測するニューラルネットワークアーキテクチャを設計する。
評価では、QRを最先端のニューラルイメージコーデックに統合し、広く使用されているKodakベンチマークの強化モデルとベースラインを比較する。
論文 参考訳(メタデータ) (2024-03-25T22:26:09Z) - Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Cross-filter compression for CNN inference acceleration [4.324080238456531]
畳み込み処理において,$sim32times$メモリと$122times$メモリを節約できる新しいクロスフィルタ圧縮法を提案する。
CIFAR-10 と ImageNet のデータセットを用いて,Binary-Weight と XNOR-Net を別々に評価した。
論文 参考訳(メタデータ) (2020-05-18T19:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。