論文の概要: On the quantization of recurrent neural networks
- arxiv url: http://arxiv.org/abs/2101.05453v1
- Date: Thu, 14 Jan 2021 04:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:49:19.426422
- Title: On the quantization of recurrent neural networks
- Title(参考訳): リカレントニューラルネットワークの量子化について
- Authors: Jian Li, Raziel Alvarez
- Abstract要約: ニューラルネットワークの量子化は、標準ニューラルネットワーク公式の高精度計算の近似として定義することができる。
本稿では,Long Short-Term Memory (LSTM) ニューラルネットワークトポロジに対する整数のみの量子化戦略を提案する。
- 参考スコア(独自算出の注目度): 9.549757800469196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integer quantization of neural networks can be defined as the approximation
of the high precision computation of the canonical neural network formulation,
using reduced integer precision. It plays a significant role in the efficient
deployment and execution of machine learning (ML) systems, reducing memory
consumption and leveraging typically faster computations. In this work, we
present an integer-only quantization strategy for Long Short-Term Memory (LSTM)
neural network topologies, which themselves are the foundation of many
production ML systems. Our quantization strategy is accurate (e.g. works well
with quantization post-training), efficient and fast to execute (utilizing 8
bit integer weights and mostly 8 bit activations), and is able to target a
variety of hardware (by leveraging instructions sets available in common CPU
architectures, as well as available neural accelerators).
- Abstract(参考訳): ニューラルネットワークの整数量子化は、整数の精度を減らし、正準ニューラルネットワーク定式化の高精度計算の近似として定義することができる。
機械学習(ML)システムの効率的なデプロイと実行、メモリ消費の削減、通常より高速な計算の活用において重要な役割を果たしている。
本研究では,Long Short-Term Memory(LSTM)ニューラルネットワークトポロジーのための整数のみの量子化戦略を提案する。
私たちの量子化戦略は正確です(例)
量子化後のトレーニングでうまく機能し、効率的かつ高速に実行でき(8ビット整数重みとほとんど8ビットアクティベーションを利用する)、様々なハードウェアをターゲットにすることができる(一般的なcpuアーキテクチャで利用可能な命令セットと利用可能なニューラルネットワークアクセラレータを活用することで)。
関連論文リスト
- Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function [0.5046831208137847]
この研究は、量子化されたニューラルネットワークの最近の進歩とスパイクニューラルネットワークのギャップを埋めることを目的としている。
これは、シグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提案した量子化関数は、4つの人気のあるベンチマーク上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-05-30T09:42:05Z) - Training Integer-Only Deep Recurrent Neural Networks [3.1829446824051195]
精度の高い整数専用リカレントニューラルネットワーク(iRNN)を得るための量子化学習法を提案する。
本手法は, 層正規化, 注意, アクティベーション関数の適応的片方向線形(PWL)近似をサポートする。
提案手法により,RNNベースの言語モデルでエッジデバイス上で実行可能である。
論文 参考訳(メタデータ) (2022-12-22T15:22:36Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Integer-Only Neural Network Quantization Scheme Based on
Shift-Batch-Normalization [13.82935273026808]
本稿では整数のみの量子化方式を提案する。
このスキームはシフトベースのバッチ正規化と均一量子化を使用して4ビット整数のみの推論を実装している。
論文 参考訳(メタデータ) (2021-05-28T09:28:12Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Fast Implementation of 4-bit Convolutional Neural Networks for Mobile
Devices [0.8362190332905524]
量子化ニューラルネットワークにおける4ビット行列乗算の効率的な実装について述べる。
また、MIDV-500データセット上でOCR認識のための4ビット量子化ニューラルネットワークを実演する。
その結果、4ビット量子化はモバイルデバイスに完全に適合し、十分な精度と推論時間が得られることがわかった。
論文 参考訳(メタデータ) (2020-09-14T14:48:40Z) - Integer Quantization for Deep Learning Inference: Principles and
Empirical Evaluation [4.638764944415326]
量子化技術は、ディープニューラルネットワークのサイズを小さくし、推論レイテンシとスループットを改善する。
本稿では,高スループット整数演算パイプラインを持つプロセッサによる高速化に寄与する量子化技術に着目する。
本研究では,全ネットワークにおいて,浮動小数点ベースラインの1%以内の精度を維持できる8ビット量子化のワークフローを提案する。
論文 参考訳(メタデータ) (2020-04-20T19:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。