論文の概要: Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function
- arxiv url: http://arxiv.org/abs/2305.19295v1
- Date: Tue, 30 May 2023 09:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 20:26:21.668815
- Title: Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function
- Title(参考訳): 微分量子化関数を有するスパイクニューラルネットワークにおける低精度量子化アウェアトレーニング
- Authors: Ayan Shymyrbay, Mohammed E. Fouda, and Ahmed Eltawil
- Abstract要約: この研究は、量子化されたニューラルネットワークの最近の進歩とスパイクニューラルネットワークのギャップを埋めることを目的としている。
これは、シグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提案した量子化関数は、4つの人気のあるベンチマーク上での最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.5046831208137847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been proven to be highly effective tools in various
domains, yet their computational and memory costs restrict them from being
widely deployed on portable devices. The recent rapid increase of edge
computing devices has led to an active search for techniques to address the
above-mentioned limitations of machine learning frameworks. The quantization of
artificial neural networks (ANNs), which converts the full-precision synaptic
weights into low-bit versions, emerged as one of the solutions. At the same
time, spiking neural networks (SNNs) have become an attractive alternative to
conventional ANNs due to their temporal information processing capability,
energy efficiency, and high biological plausibility. Despite being driven by
the same motivation, the simultaneous utilization of both concepts has yet to
be thoroughly studied. Therefore, this work aims to bridge the gap between
recent progress in quantized neural networks and SNNs. It presents an extensive
study on the performance of the quantization function, represented as a linear
combination of sigmoid functions, exploited in low-bit weight quantization in
SNNs. The presented quantization function demonstrates the state-of-the-art
performance on four popular benchmarks, CIFAR10-DVS, DVS128 Gesture,
N-Caltech101, and N-MNIST, for binary networks (64.05\%, 95.45\%, 68.71\%, and
99.43\% respectively) with small accuracy drops and up to 31$\times$ memory
savings, which outperforms existing methods.
- Abstract(参考訳): ディープニューラルネットワークは、さまざまな領域において非常に効果的なツールであることが証明されているが、計算とメモリのコストは、ポータブルデバイスに広くデプロイされることを妨げている。
最近のエッジコンピューティングデバイスの急速な増加は、前述の機械学習フレームワークの制限に対処するテクニックを積極的に探そうとしている。
完全精度のシナプス重みを低ビットバージョンに変換する人工知能ニューラルネットワーク(ANN)の量子化がソリューションの1つとして登場した。
同時に、スパイクニューラルネットワーク(SNN)は、時間情報処理能力、エネルギー効率、高い生物学的妥当性のために、従来のANNに代わる魅力的な選択肢となっている。
同じ動機によって駆動されるにもかかわらず、両方の概念の同時利用は未だ十分に研究されていない。
そこで本研究は,近年の量子化ニューラルネットワークとsnsのギャップを埋めることを目的としている。
SNNにおける低ビット量化に利用されるシグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提示された量子化関数は、バイナリネットワーク(それぞれ64.05\%、95.45\%、68.71\%、99.43\%)のcifar10-dvs、dvs128 gesture、n-caltech101、n-mnistの4つの人気のあるベンチマークで最先端のパフォーマンスを示す。
関連論文リスト
- The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Edge Inference with Fully Differentiable Quantized Mixed Precision
Neural Networks [1.131071436917293]
パラメータと演算をビット精度の低いものに量子化することで、ニューラルネットワークの推論にかなりのメモリとエネルギーを節約できる。
本稿では,エッジ計算を対象とする混合精度畳み込みニューラルネットワーク(CNN)の量子化手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:11:37Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - A Spike in Performance: Training Hybrid-Spiking Neural Networks with
Quantized Activation Functions [6.574517227976925]
Spiking Neural Network(SNN)は、エネルギー効率の高いコンピューティングに対する有望なアプローチである。
我々は、非スパイキングネットワークをSNNに変換する際に、最先端の精度を維持する方法を示す。
論文 参考訳(メタデータ) (2020-02-10T05:24:27Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。