論文の概要: Fast-SNN: Fast Spiking Neural Network by Converting Quantized ANN
- arxiv url: http://arxiv.org/abs/2305.19868v1
- Date: Wed, 31 May 2023 14:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 16:10:06.542505
- Title: Fast-SNN: Fast Spiking Neural Network by Converting Quantized ANN
- Title(参考訳): Fast-SNN:量子化ANN変換による高速スパイクニューラルネットワーク
- Authors: Yangfan Hu, Qian Zheng, Xudong Jiang, Gang Pan
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、計算とエネルギー効率の利点を示している。
離散スパイク関数のため、ディープSNNをトレーニングすることは依然として課題である。
本稿では低レイテンシで高い性能を実現する高速SNNを提案する。
- 参考スコア(独自算出の注目度): 38.18008827711246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have shown advantages in computation and
energy efficiency over traditional artificial neural networks (ANNs) thanks to
their event-driven representations. SNNs also replace weight multiplications in
ANNs with additions, which are more energy-efficient and less computationally
intensive. However, it remains a challenge to train deep SNNs due to the
discrete spike function. A popular approach to circumvent this challenge is
ANN-to-SNN conversion. However, due to the quantization error and accumulating
error, it often requires lots of time steps (high inference latency) to achieve
high performance, which negates SNN's advantages. To this end, this paper
proposes Fast-SNN that achieves high performance with low latency. We
demonstrate the equivalent mapping between temporal quantization in SNNs and
spatial quantization in ANNs, based on which the minimization of the
quantization error is transferred to quantized ANN training. With the
minimization of the quantization error, we show that the sequential error is
the primary cause of the accumulating error, which is addressed by introducing
a signed IF neuron model and a layer-wise fine-tuning mechanism. Our method
achieves state-of-the-art performance and low latency on various computer
vision tasks, including image classification, object detection, and semantic
segmentation. Codes are available at: https://github.com/yangfan-hu/Fast-SNN.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、イベント駆動型表現のおかげで、従来の人工知能ニューラルネットワーク(ANN)よりも計算とエネルギー効率の優位性を示している。
SNNはANNの重み乗算を、エネルギー効率が良く計算量も少ない加算に置き換える。
しかし、離散スパイク関数のため、深いSNNを訓練することは依然として困難である。
この課題を回避するための一般的なアプローチは、ANN-to-SNN変換である。
しかし、量子化エラーと累積誤差のため、高い性能を達成するために多くの時間ステップ(高い推論遅延)を必要とすることが多く、SNNの利点を否定する。
そこで本研究では,低レイテンシで高性能な高速SNNを提案する。
量子化誤差の最小化を量子化 ann トレーニングに移すことにより,sns の時空間量子化と ann の空間量子化の等価なマッピングを示す。
量子化誤差の最小化により,符号付きifニューロンモデルと層毎の微調整機構を導入することで,累積誤差の主な原因は逐次誤差であることを示す。
画像分類,オブジェクト検出,セマンティックセグメンテーションなど,様々なコンピュータビジョンタスクにおける最先端性能と低レイテンシを実現する。
コードは、https://github.com/yangfan-hu/Fast-SNN.comで入手できる。
関連論文リスト
- Optimal ANN-SNN Conversion with Group Neurons [39.14228133571838]
スパイキングニューラルネットワーク(SNN)は、有望な第3世代のニューラルネットワークとして登場した。
効果的な学習アルゴリズムの欠如は、SNNにとって依然として課題である。
我々はグループニューロン(GN)と呼ばれる新しいタイプのニューロンを紹介する。
論文 参考訳(メタデータ) (2024-02-29T11:41:12Z) - When Bio-Inspired Computing meets Deep Learning: Low-Latency, Accurate,
& Energy-Efficient Spiking Neural Networks from Artificial Neural Networks [22.721987637571306]
Spiking Neural Networks (SNN) は畳み込みニューラルネットワーク (CNN) に匹敵する精度を示している
ANN-to-SNN変換は、最近、複雑な画像認識タスクにおける最先端(SOTA)テスト精度に近いディープSNNの開発において、大きな注目を集めている。
提案手法は,SOTA変換手法で必要となる時間ステップを指数的に減少させる新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T00:10:45Z) - Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks [22.532709609646066]
スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-08T03:04:53Z) - Reducing ANN-SNN Conversion Error through Residual Membrane Potential [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は、低消費電力のユニークな特性とニューロモルフィックチップ上の高速コンピューティングにより、広く学術的な注目を集めている。
本稿では,不均一な誤差を詳細に解析し,それを4つのカテゴリに分割する。
本研究では,残膜電位に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T04:44:31Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。