論文の概要: A Generalized Zero-Shot Quantization of Deep Convolutional Neural
Networks via Learned Weights Statistics
- arxiv url: http://arxiv.org/abs/2112.02834v1
- Date: Mon, 6 Dec 2021 07:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:59:23.351493
- Title: A Generalized Zero-Shot Quantization of Deep Convolutional Neural
Networks via Learned Weights Statistics
- Title(参考訳): 学習重み統計を用いた深層畳み込みニューラルネットワークの一般化ゼロショット量子化
- Authors: Prasen Kumar Sharma, Arun Abraham, Vikram Nelvoy Rajendiran
- Abstract要約: 深部畳み込みニューラルネットワークの浮動小数点重みと活性化を固定点表現に量子化すると、メモリフットプリントと推論時間が減少する。
近年,ゼロショット量子化への取り組みが進められている。
本稿では,オリジナルデータやBN層統計に依存しない一般化ゼロショット量子化(GZSQ)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantizing the floating-point weights and activations of deep convolutional
neural networks to fixed-point representation yields reduced memory footprints
and inference time. Recently, efforts have been afoot towards zero-shot
quantization that does not require original unlabelled training samples of a
given task. These best-published works heavily rely on the learned batch
normalization (BN) parameters to infer the range of the activations for
quantization. In particular, these methods are built upon either empirical
estimation framework or the data distillation approach, for computing the range
of the activations. However, the performance of such schemes severely degrades
when presented with a network that does not accommodate BN layers. In this line
of thought, we propose a generalized zero-shot quantization (GZSQ) framework
that neither requires original data nor relies on BN layer statistics. We have
utilized the data distillation approach and leveraged only the pre-trained
weights of the model to estimate enriched data for range calibration of the
activations. To the best of our knowledge, this is the first work that utilizes
the distribution of the pretrained weights to assist the process of zero-shot
quantization. The proposed scheme has significantly outperformed the existing
zero-shot works, e.g., an improvement of ~ 33% in classification accuracy for
MobileNetV2 and several other models that are w & w/o BN layers, for a variety
of tasks. We have also demonstrated the efficacy of the proposed work across
multiple open-source quantization frameworks. Importantly, our work is the
first attempt towards the post-training zero-shot quantization of futuristic
unnormalized deep neural networks.
- Abstract(参考訳): 深部畳み込みニューラルネットワークの浮動小数点重みと活性化を固定点表現に量子化すると、メモリフットプリントと推論時間が減少する。
近年、与えられたタスクのラベルなしのトレーニングサンプルを必要としないゼロショット量子化への取り組みが進んでいる。
これらの最良出版物は、量子化のアクティベーションの範囲を推測するために、学習されたバッチ正規化(bn)パラメータに大きく依存している。
特に、これらの手法は、活性化の範囲を計算するための経験的推定フレームワークまたはデータ蒸留アプローチに基づいて構築される。
しかし、BN層に対応できないネットワークを提示すると、そのようなスキームの性能は著しく低下する。
本稿では,オリジナルデータやBN層統計に依存しない一般化ゼロショット量子化(GZSQ)フレームワークを提案する。
我々は,データ蒸留手法を応用し,モデルの事前学習重量のみを利用して,活性化のレンジキャリブレーションのためのリッチなデータを推定した。
我々の知る限りでは、ゼロショット量子化のプロセスを支援するために事前訓練された重みの分布を利用する最初の研究である。
提案手法は既存のゼロショット処理、例えばMobileNetV2の分類精度が約33%向上し、様々なタスクにおいてw&w/o BN層である他のモデルよりも大幅に向上した。
また,提案手法の有効性を複数のオープンソース量子化フレームワークで実証した。
重要なのは、未来的な非正規化ディープニューラルネットワークのゼロショット量子化を後付けする最初の試みである。
関連論文リスト
- Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Zero-shot Adversarial Quantization [11.722728148523366]
ゼロショット逆量子化(ZAQ: Zero-shot adversarial quantization)フレームワークを提案し,効果的な不一致推定と知識伝達を容易にする。
これは、情報的で多様なデータ例を合成するためにジェネレータを駆動する、新しい2レベル不一致モデリングによって達成される。
強力なゼロショットベースラインに対してZAQの優位性を示す3つの基本的なビジョンタスクについて広範な実験を行います。
論文 参考訳(メタデータ) (2021-03-29T01:33:34Z) - Direct Quantization for Training Highly Accurate Low Bit-width Deep
Neural Networks [73.29587731448345]
本稿では,低ビット幅重みとアクティベーションで深部畳み込みニューラルネットワークを訓練する2つの新しい手法を提案する。
まず、ビット幅の少ない重みを得るため、既存の方法の多くは、全精度ネットワーク重みで量子化することにより量子化重みを得る。
第二に、低ビット幅のアクティベーションを得るために、既存の作品はすべてのチャネルを等しく考慮する。
論文 参考訳(メタデータ) (2020-12-26T15:21:18Z) - Recurrence of Optimum for Training Weight and Activation Quantized
Networks [4.103701929881022]
低精度の重みとアクティベーションを備えたディープラーニングモデルのトレーニングには、必要な最適化タスクが伴う。
ネットワーク量子化の性質を克服する方法を紹介します。
また,訓練用量子化深層ネットワークにおける重み進化の繰り返し現象の数値的証拠を示す。
論文 参考訳(メタデータ) (2020-12-10T09:14:43Z) - Optimal Quantization for Batch Normalization in Neural Network
Deployments and Beyond [18.14282813812512]
バッチ正規化(BN)が量子ニューラルネットワーク(QNN)に挑戦
本稿では、2つの浮動小数点のアフィン変換を共有量子化スケールで固定点演算に変換することによりBNを定量化する新しい方法を提案する。
提案手法は,CIFARおよびImageNetデータセット上の層レベルでの実験により検証される。
論文 参考訳(メタデータ) (2020-08-30T09:33:29Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。