論文の概要: Ultra-low Latency Adaptive Local Binary Spiking Neural Network with
Accuracy Loss Estimator
- arxiv url: http://arxiv.org/abs/2208.00398v1
- Date: Sun, 31 Jul 2022 09:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:10:31.517159
- Title: Ultra-low Latency Adaptive Local Binary Spiking Neural Network with
Accuracy Loss Estimator
- Title(参考訳): 精度損失推定器を用いた超低レイテンシ適応局所二元スパイクニューラルネットワーク
- Authors: Changqing Xu, Yijian Pei, Zili Wu, Yi Liu, Yintang Yang
- Abstract要約: 精度損失推定器を用いた超低レイテンシ適応型局所二元スパイクニューラルネットワーク(ALBSNN)を提案する。
実験の結果,ネットワークの精度を損なうことなく,ストレージ容量を20%以上削減できることがわかった。
- 参考スコア(独自算出の注目度): 4.554628904670269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural network (SNN) is a brain-inspired model which has more
spatio-temporal information processing capacity and computational energy
efficiency. However, with the increasing depth of SNNs, the memory problem
caused by the weights of SNNs has gradually attracted attention. Inspired by
Artificial Neural Networks (ANNs) quantization technology, binarized SNN (BSNN)
is introduced to solve the memory problem. Due to the lack of suitable learning
algorithms, BSNN is usually obtained by ANN-to-SNN conversion, whose accuracy
will be limited by the trained ANNs. In this paper, we propose an ultra-low
latency adaptive local binary spiking neural network (ALBSNN) with accuracy
loss estimators, which dynamically selects the network layers to be binarized
to ensure the accuracy of the network by evaluating the error caused by the
binarized weights during the network learning process. Experimental results
show that this method can reduce storage space by more than 20 % without losing
network accuracy. At the same time, in order to accelerate the training speed
of the network, the global average pooling(GAP) layer is introduced to replace
the fully connected layers by the combination of convolution and pooling, so
that SNNs can use a small number of time steps to obtain better recognition
accuracy. In the extreme case of using only one time step, we still can achieve
92.92 %, 91.63 % ,and 63.54 % testing accuracy on three different datasets,
FashionMNIST, CIFAR-10, and CIFAR-100, respectively.
- Abstract(参考訳): spiking neural network (snn) は脳にインスパイアされたモデルで、時空間的情報処理能力と計算エネルギー効率が高い。
しかし,SNNの深度の増加に伴い,SNNの重みによる記憶問題が徐々に注目されるようになった。
ニューラルネットワーク(ANN)量子化技術に触発されて、メモリ問題を解決するために二項化SNN(BSNN)が導入された。
適切な学習アルゴリズムがないため、BSNNは通常ANN-to-SNN変換によって取得される。
本稿では,ネットワーク学習過程における二項化重みによる誤差を評価することにより,二項化するネットワーク層を動的に選択し,ネットワークの精度を確実にする,精度低下推定器を備えた超低レイテンシ適応型局所二項化ニューラルネットワーク(ALBSNN)を提案する。
実験の結果,ネットワークの精度を損なうことなく,ストレージスペースを20%以上削減できることがわかった。
同時に、ネットワークのトレーニング速度を高速化するために、グローバル平均プーリング(GAP)層を導入し、コンボリューションとプーリングの組み合わせによって完全に接続された層を置き換えることにより、SNNは少ない時間ステップで認識精度を向上させることができる。
1回のステップしか使用できない極端な場合、FashionMNIST、CIFAR-10、CIFAR-100の3つの異なるデータセットで92.92 %、91.63 %、および63.54 %のテスト精度を達成することができる。
関連論文リスト
- FTBC: Forward Temporal Bias Correction for Optimizing ANN-SNN Conversion [16.9748086865693]
Spiking Neural Networks(SNN)は、ニューラルネットワーク(ANN)と比較して、エネルギー効率の高いコンピューティングのための有望な道を提供する
本稿では,計算オーバーヘッドを伴わずに変換精度を向上させることを目的とした,FTBC(Forward Temporal Bias)技術を紹介する。
さらに,前方通過のみの時間偏差を求めるアルゴリズムを提案し,逆伝播の計算負担を軽減した。
論文 参考訳(メタデータ) (2024-03-27T09:25:20Z) - When Bio-Inspired Computing meets Deep Learning: Low-Latency, Accurate,
& Energy-Efficient Spiking Neural Networks from Artificial Neural Networks [22.721987637571306]
Spiking Neural Networks (SNN) は畳み込みニューラルネットワーク (CNN) に匹敵する精度を示している
ANN-to-SNN変換は、最近、複雑な画像認識タスクにおける最先端(SOTA)テスト精度に近いディープSNNの開発において、大きな注目を集めている。
提案手法は,SOTA変換手法で必要となる時間ステップを指数的に減少させる新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T00:10:45Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Optimized Potential Initialization for Low-latency Spiking Neural
Networks [21.688402090967497]
スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを実現したANN-to-SNN変換である。
本稿では、非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
論文 参考訳(メタデータ) (2022-02-03T07:15:43Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。