論文の概要: Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2303.04347v1
- Date: Wed, 8 Mar 2023 03:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:07:39.724355
- Title: Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks
- Title(参考訳): 高精度・低遅延スパイクニューラルネットワークのための最適ANN-SNN変換
- Authors: Tong Bu, Wei Fang, Jianhao Ding, PengLin Dai, Zhaofei Yu, Tiejun Huang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
- 参考スコア(独自算出の注目度): 22.532709609646066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) have gained great attraction due to their
distinctive properties of low power consumption and fast inference on
neuromorphic hardware. As the most effective method to get deep SNNs, ANN-SNN
conversion has achieved comparable performance as ANNs on large-scale datasets.
Despite this, it requires long time-steps to match the firing rates of SNNs to
the activation of ANNs. As a result, the converted SNN suffers severe
performance degradation problems with short time-steps, which hamper the
practical application of SNNs. In this paper, we theoretically analyze ANN-SNN
conversion error and derive the estimated activation function of SNNs. Then we
propose the quantization clip-floor-shift activation function to replace the
ReLU activation function in source ANNs, which can better approximate the
activation function of SNNs. We prove that the expected conversion error
between SNNs and ANNs is zero, enabling us to achieve high-accuracy and
ultra-low-latency SNNs. We evaluate our method on CIFAR-10/100 and ImageNet
datasets, and show that it outperforms the state-of-the-art ANN-SNN and
directly trained SNNs in both accuracy and time-steps. To the best of our
knowledge, this is the first time to explore high-performance ANN-SNN
conversion with ultra-low latency (4 time-steps). Code is available at
https://github.com/putshua/SNN\_conversion\_QCFS
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
それにもかかわらず、SNNの発射速度とANNの活性化に合わせた長い時間を要する。
その結果、変換されたSNNは短時間で深刻な性能劣化に悩まされ、SNNの実用化を妨げている。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
次に、SNNのアクティベーション関数をよりよく近似できる、ソースANNにおけるReLUアクティベーション関数を置き換えるための量子化クリップフロアシフトアクティベーション関数を提案する。
SNNとANNの変換誤差はゼロであり,高精度かつ超低レイテンシのSNNを実現することができる。
CIFAR-10/100 と ImageNet のデータセット上で評価を行い、最先端の ANN-SNN と直接訓練された SNN を精度と時間の両方で上回っていることを示す。
我々の知る限りでは、超低レイテンシ(4段階)で高性能なANN-SNN変換を探索するのはこれが初めてである。
コードはhttps://github.com/putshua/snn\_conversion\_qcfsで入手できる。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - When Bio-Inspired Computing meets Deep Learning: Low-Latency, Accurate,
& Energy-Efficient Spiking Neural Networks from Artificial Neural Networks [22.721987637571306]
Spiking Neural Networks (SNN) は畳み込みニューラルネットワーク (CNN) に匹敵する精度を示している
ANN-to-SNN変換は、最近、複雑な画像認識タスクにおける最先端(SOTA)テスト精度に近いディープSNNの開発において、大きな注目を集めている。
提案手法は,SOTA変換手法で必要となる時間ステップを指数的に減少させる新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T00:10:45Z) - LaSNN: Layer-wise ANN-to-SNN Distillation for Effective and Efficient
Training in Deep Spiking Neural Networks [7.0691139514420005]
スパイキングニューラルネットワーク(SNN)は、事象駆動機構のため、生物学的に現実的で、低消費電力で現実的に有望である。
トレーニングされたANNのパラメータを同じ構造を持つSNNにマッピングすることで、競合精度を得るための変換方式を提案する。
レイヤワイドANN-to-SNN知識蒸留(LaSNN)という新しいSNNトレーニングフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-17T03:49:35Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Optimized Potential Initialization for Low-latency Spiking Neural
Networks [21.688402090967497]
スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを実現したANN-to-SNN変換である。
本稿では、非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
論文 参考訳(メタデータ) (2022-02-03T07:15:43Z) - Optimal ANN-SNN Conversion for Fast and Accurate Inference in Deep
Spiking Neural Networks [43.046402416604245]
Spiking Neural Networks(SNN)は、バイオインスパイアされたエネルギー効率の高いニューラルネットワークである。
本稿では,ANN-SNN変換を理論的に解析し,最適変換の十分な条件を導出する。
提案手法は, VGG-16, PreActResNet-18, およびより深い構造を用いて, ほぼ損失の少ない変換を実現する。
論文 参考訳(メタデータ) (2021-05-25T04:15:06Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。