論文の概要: Optimized Potential Initialization for Low-latency Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.01440v1
- Date: Thu, 3 Feb 2022 07:15:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 14:28:04.017934
- Title: Optimized Potential Initialization for Low-latency Spiking Neural
Networks
- Title(参考訳): 低遅延スパイクニューラルネットワークの最適化電位初期化
- Authors: Tong Bu, Jianhao Ding, Zhaofei Yu, Tiejun Huang
- Abstract要約: スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを実現したANN-to-SNN変換である。
本稿では、非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
- 参考スコア(独自算出の注目度): 21.688402090967497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have been attached great importance due to the
distinctive properties of low power consumption, biological plausibility, and
adversarial robustness. The most effective way to train deep SNNs is through
ANN-to-SNN conversion, which have yielded the best performance in deep network
structure and large-scale datasets. However, there is a trade-off between
accuracy and latency. In order to achieve high precision as original ANNs, a
long simulation time is needed to match the firing rate of a spiking neuron
with the activation value of an analog neuron, which impedes the practical
application of SNN. In this paper, we aim to achieve high-performance converted
SNNs with extremely low latency (fewer than 32 time-steps). We start by
theoretically analyzing ANN-to-SNN conversion and show that scaling the
thresholds does play a similar role as weight normalization. Instead of
introducing constraints that facilitate ANN-to-SNN conversion at the cost of
model capacity, we applied a more direct way by optimizing the initial membrane
potential to reduce the conversion loss in each layer. Besides, we demonstrate
that optimal initialization of membrane potentials can implement expected
error-free ANN-to-SNN conversion. We evaluate our algorithm on the CIFAR-10,
CIFAR-100 and ImageNet datasets and achieve state-of-the-art accuracy, using
fewer time-steps. For example, we reach top-1 accuracy of 93.38\% on CIFAR-10
with 16 time-steps. Moreover, our method can be applied to other ANN-SNN
conversion methodologies and remarkably promote performance when the time-steps
is small.
- Abstract(参考訳): スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを得るANN-to-SNN変換である。
しかし、正確さとレイテンシの間にはトレードオフがある。
元のアンとして高い精度を達成するためには、スパイクニューロンの発射速度とアナログニューロンの活性化値とを一致させるために長いシミュレーション時間が必要であり、snの実用的利用を妨げる。
本稿では,非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
まずANN-to-SNN変換を理論的に解析し、しきい値のスケーリングが重み正規化と同じような役割を果たすことを示す。
モデルキャパシティを犠牲にしてANN-SNN変換を促進する制約を導入する代わりに,初期膜電位を最適化して各層における変換損失を低減することによって,より直接的な手法を適用した。
さらに,膜電位の最適初期化により,期待される誤りのないANN-to-SNN変換を実現できることを示す。
我々は,CIFAR-10,CIFAR-100,ImageNetのデータセットを用いてアルゴリズムを評価し,より少ない時間ステップで最先端の精度を実現する。
例えば、CIFAR-10でトップ1の精度は93.38\%に達し、タイムステップは16である。
さらに,本手法は他のANN-SNN変換手法にも適用可能であり,時間ステップが小さい場合の性能が著しく向上する。
関連論文リスト
- When Bio-Inspired Computing meets Deep Learning: Low-Latency, Accurate,
& Energy-Efficient Spiking Neural Networks from Artificial Neural Networks [22.721987637571306]
Spiking Neural Networks (SNN) は畳み込みニューラルネットワーク (CNN) に匹敵する精度を示している
ANN-to-SNN変換は、最近、複雑な画像認識タスクにおける最先端(SOTA)テスト精度に近いディープSNNの開発において、大きな注目を集めている。
提案手法は,SOTA変換手法で必要となる時間ステップを指数的に減少させる新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T00:10:45Z) - Bridging the Gap between ANNs and SNNs by Calibrating Offset Spikes [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は低消費電力と時間情報処理の特徴的な特徴から注目されている。
ANN-SNN変換は、SNNに適用するための最も一般的な訓練方法であり、変換されたSNNが大規模データセット上でANNに匹敵するパフォーマンスを達成することを確実にする。
本稿では、異なる変換誤差を評価してこれらの誤りを除去する代わりに、実際のSNN発射速度と所望のSNN発射速度のずれ度を測定するためにオフセットスパイクを定義する。
論文 参考訳(メタデータ) (2023-02-21T14:10:56Z) - Reducing ANN-SNN Conversion Error through Residual Membrane Potential [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は、低消費電力のユニークな特性とニューロモルフィックチップ上の高速コンピューティングにより、広く学術的な注目を集めている。
本稿では,不均一な誤差を詳細に解析し,それを4つのカテゴリに分割する。
本研究では,残膜電位に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T04:44:31Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Optimal ANN-SNN Conversion for Fast and Accurate Inference in Deep
Spiking Neural Networks [43.046402416604245]
Spiking Neural Networks(SNN)は、バイオインスパイアされたエネルギー効率の高いニューラルネットワークである。
本稿では,ANN-SNN変換を理論的に解析し,最適変換の十分な条件を導出する。
提案手法は, VGG-16, PreActResNet-18, およびより深い構造を用いて, ほぼ損失の少ない変換を実現する。
論文 参考訳(メタデータ) (2021-05-25T04:15:06Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。