論文の概要: Quantization of Deep Neural Networks for Accumulator-constrained
Processors
- arxiv url: http://arxiv.org/abs/2004.11783v1
- Date: Fri, 24 Apr 2020 14:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:26:45.522840
- Title: Quantization of Deep Neural Networks for Accumulator-constrained
Processors
- Title(参考訳): accumulator-constrained processorのためのディープニューラルネットワークの量子化
- Authors: Barry de Bruin, Zoran Zivkovic, Henk Corporaal
- Abstract要約: 本稿では,大規模な蓄積レジスタを持たないプラットフォームに対して,ニューラルネットワーク(ANN)量子化手法を提案する。
量子化問題をアキュムレータサイズの関数として定式化し、入力データと重みのビット幅を最大化することでモデルの精度を最大化する。
我々は,CIFAR-10およびILSVRC2012画像分類ベンチマークにおいて,浮動小数点ベースラインの1%以内の分類精度が得られることを示した。
- 参考スコア(独自算出の注目度): 2.8489574654566674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an Artificial Neural Network (ANN) quantization methodology for
platforms without wide accumulation registers. This enables fixed-point model
deployment on embedded compute platforms that are not specifically designed for
large kernel computations (i.e. accumulator-constrained processors). We
formulate the quantization problem as a function of accumulator size, and aim
to maximize the model accuracy by maximizing bit width of input data and
weights. To reduce the number of configurations to consider, only solutions
that fully utilize the available accumulator bits are being tested. We
demonstrate that 16-bit accumulators are able to obtain a classification
accuracy within 1\% of the floating-point baselines on the CIFAR-10 and
ILSVRC2012 image classification benchmarks. Additionally, a near-optimal
$2\times$ speedup is obtained on an ARM processor, by exploiting 16-bit
accumulators for image classification on the All-CNN-C and AlexNet networks.
- Abstract(参考訳): 本稿では,広範な蓄積レジスタを持たないプラットフォームに対して,ニューラルネットワーク(ann)量子化手法を提案する。
これにより、大規模なカーネル計算(つまり、accumulator-constrained processor)用に特別に設計されていない組み込み計算プラットフォームへの固定ポイントモデルデプロイが可能になる。
量子化問題をアキュムレータサイズの関数として定式化し、入力データと重みのビット幅を最大化することでモデルの精度を最大化する。
考慮すべき構成数を減らすために、利用可能なアキュムレータビットを完全に利用するソリューションのみがテストされている。
16ビットのアキュムレータは、cifar-10とilsvrc2012の画像分類ベンチマークの浮動小数点ベースラインの1\%以内に分類精度を得ることができる。
さらに、All-CNN-CおよびAlexNetネットワーク上の画像分類に16ビットのアキュムレータを活用することにより、ARMプロセッサ上でほぼ最適の$2\times$スピードアップが得られる。
関連論文リスト
- A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance [49.1574468325115]
accumulator-aware Quantization (A2Q)は、量子化されたニューラルネットワーク(QNN)をトレーニングして、推論時のオーバーフローを回避するために設計された新しい重み量子化手法である。
A2Qは重み正規化にインスパイアされたユニークな定式化を導入し、アキュミュレータビット幅境界に従ってモデルの重みのL1ノルムを制約する。
A2Qは浮動小数点ベースラインと競合するモデルの精度を維持しつつ、低精度のアキュムレータのためのQNNを訓練できることを示す。
論文 参考訳(メタデータ) (2023-08-25T17:28:58Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - On the quantization of recurrent neural networks [9.549757800469196]
ニューラルネットワークの量子化は、標準ニューラルネットワーク公式の高精度計算の近似として定義することができる。
本稿では,Long Short-Term Memory (LSTM) ニューラルネットワークトポロジに対する整数のみの量子化戦略を提案する。
論文 参考訳(メタデータ) (2021-01-14T04:25:08Z) - Binarization Methods for Motor-Imagery Brain-Computer Interface
Classification [18.722731794073756]
本稿では,実数値重みを2進数に変換する手法を提案する。
2次埋め込みの次元を調整することにより、4級MI(leq$1.27%以下)で、float16重みを持つモデルと比較してほぼ同じ精度を達成する。
提案手法は,CNNの完全連結層をバイポーラランダムプロジェクションを用いたバイナリ拡張メモリに置き換える。
論文 参考訳(メタデータ) (2020-10-14T12:28:18Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。