論文の概要: Attention Round for Post-Training Quantization
- arxiv url: http://arxiv.org/abs/2207.03088v1
- Date: Thu, 7 Jul 2022 05:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 12:48:08.442763
- Title: Attention Round for Post-Training Quantization
- Title(参考訳): トレーニング後の量子化のための注意ラウンド
- Authors: Huabin Diao and Gongyan Li and Shaoyun Xu and Yuexing Hao
- Abstract要約: 本稿では,アテンションラウンドと呼ばれる新しい定量化手法を提案する。
異なる量子化値にマッピングされる確率は、量子化値とwの間の距離と負に相関し、ガウス函数と崩壊する。
ResNet18 と MobileNetV2 では,本論文で提案するポストトレーニング量子化は 1,024 のトレーニングデータと 10 分しか必要としない。
- 参考スコア(独自算出の注目度): 0.9558392439655015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At present, the quantification methods of neural network models are mainly
divided into post-training quantization (PTQ) and quantization aware training
(QAT). Post-training quantization only need a small part of the data to
complete the quantification process, but the performance of its quantitative
model is not as good as the quantization aware training. This paper presents a
novel quantification method called Attention Round. This method gives
parameters w the opportunity to be mapped to all possible quantized values,
rather than just the two quantized values nearby w in the process of
quantization. The probability of being mapped to different quantified values is
negatively correlated with the distance between the quantified values and w,
and decay with a Gaussian function. In addition, this paper uses the lossy
coding length as a measure to assign bit widths to the different layers of the
model to solve the problem of mixed precision quantization, which effectively
avoids to solve combinatorial optimization problem. This paper also performs
quantitative experiments on different models, the results confirm the
effectiveness of the proposed method. For ResNet18 and MobileNetV2, the
post-training quantization proposed in this paper only require 1,024 training
data and 10 minutes to complete the quantization process, which can achieve
quantization performance on par with quantization aware training.
- Abstract(参考訳): 現在、ニューラルネットワークモデルの定量化方法は、主にポストトレーニング量子化(PTQ)と量子化対応トレーニング(QAT)に分けられている。
トレーニング後の量子化は、定量化プロセスを完了するためにデータのごく一部しか必要としないが、その量的モデルの性能は、量子化を意識したトレーニングほど良くない。
本稿では,注意ラウンドと呼ばれる新しい量化手法を提案する。
この方法では、パラメータwに、量子化の過程でwに近い2つの量子化値だけでなく、可能な全ての量子化値にマッピングされる機会を与える。
異なる定量値にマッピングされる確率は、量子化された値とwの間の距離と負に相関し、ガウス関数で崩壊する。
さらに,モデルの異なる層にビット幅を割り当てる手法として,符号長の損失を利用して混合精度量子化の問題を解くことにより,組合せ最適化の問題を効果的に回避する。
また, 異なるモデルを用いた定量的実験を行い, 提案手法の有効性を確認した。
ResNet18 と MobileNetV2 では,本論文で提案するポストトレーニング量子化は,量子化処理の完了に 1,024 のトレーニングデータと 10 分しか要しない。
関連論文リスト
- SQUAT: Stateful Quantization-Aware Training in Recurrent Spiking Neural Networks [1.0923877073891446]
スパイキングニューラルネットワーク(SNN)は効率を向上させるという目標を共有しているが、ニューラルネットワーク推論の消費電力を減らすために、"イベント駆動"アプローチを採用する。
本稿では, ステートフルニューロンに対するQAT方式として, (i) 均一量子化戦略, (ii) 重み量子化の確立された方法, (ii) しきい値中心量子化の2つを紹介する。
以上の結果から,発火閾値付近の量子化レベルの密度の増加は,複数のベンチマークデータセットの精度を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T03:07:16Z) - PreQuant: A Task-agnostic Quantization Approach for Pre-trained Language
Models [52.09865918265002]
ファインチューニングのフレームワークPreQuantに先立って,新しい量子化を提案する。
PreQuantは様々な量子化戦略と互換性があり、インダクションされた量子化誤差を修正するために、アウタリア対応の微調整が組み込まれている。
BERT,RoBERTa,T5を用いたGLUEベンチマークにおけるPreQuantの有効性を示す。
論文 参考訳(メタデータ) (2023-05-30T08:41:33Z) - Ternary Quantization: A Survey [12.90416661059601]
深層ニューラルネットワークモデルのデプロイには、推論時間、モデルサイズ、精度が不可欠である。
3次量子化の進化を概観し、既存の3次量子化法との関係について検討する。
論文 参考訳(メタデータ) (2023-03-02T03:38:51Z) - Nonuniform-to-Uniform Quantization: Towards Accurate Quantization via
Generalized Straight-Through Estimation [48.838691414561694]
非一様量子化(英: Nonuniform-to-Uniform Quantization、N2UQ)は、ハードウェアフレンドリーで効率的な非一様法の強力な表現能力を維持できる方法である。
N2UQはImageNet上で最先端の非一様量子化法を0.71.8%上回る。
論文 参考訳(メタデータ) (2021-11-29T18:59:55Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z) - In-Hindsight Quantization Range Estimation for Quantized Training [5.65658124285176]
従来の反復で推定した量子化範囲を用いて,現在を数値化する動的量子化手法であるin-hindsight range推定法を提案する。
今回のアプローチでは,ニューラルネットワークアクセラレータによる最小限のハードウェアサポートのみを必要としながら,勾配とアクティベーションの高速静的量子化を可能にする。
量子化範囲の推定のためのドロップイン代替として意図されており、他の量子化トレーニングの進歩と併用することができる。
論文 参考訳(メタデータ) (2021-05-10T10:25:28Z) - One Model for All Quantization: A Quantized Network Supporting Hot-Swap
Bit-Width Adjustment [36.75157407486302]
多様なビット幅をサポートする全量子化のためのモデルを訓練する手法を提案する。
重みの多様性を高めるためにウェーブレット分解と再構成を用いる。
同じ精度で訓練された専用モデルに匹敵する精度が得られる。
論文 参考訳(メタデータ) (2021-05-04T08:10:50Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Gradient $\ell_1$ Regularization for Quantization Robustness [70.39776106458858]
トレーニング後の量子化に対するロバスト性を改善するための単純な正規化スキームを導出する。
量子化対応ネットワークをトレーニングすることにより、異なるビット幅にオンデマンドで量子化できる1組の重みを格納できる。
論文 参考訳(メタデータ) (2020-02-18T12:31:34Z) - Post-Training Piecewise Linear Quantization for Deep Neural Networks [13.717228230596167]
リソース制限されたデバイスへのディープニューラルネットワークのエネルギー効率向上において、量子化は重要な役割を果たす。
本稿では,長い尾を持つベル形状のテンソル値の正確な近似を実現するために,一方向線形量子化方式を提案する。
提案手法は,最先端のポストトレーニング量子化手法と比較して,画像分類,セマンティックセグメンテーション,オブジェクト検出においてわずかなオーバーヘッドで優れた性能を実現する。
論文 参考訳(メタデータ) (2020-01-31T23:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。