論文の概要: Optimal ANN-SNN Conversion with Group Neurons
- arxiv url: http://arxiv.org/abs/2402.19061v1
- Date: Thu, 29 Feb 2024 11:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:16:27.032067
- Title: Optimal ANN-SNN Conversion with Group Neurons
- Title(参考訳): グループニューロンを用いたANN-SNN変換
- Authors: Liuzhenghao Lv, Wei Fang, Li Yuan, Yonghong Tian
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、有望な第3世代のニューラルネットワークとして登場した。
効果的な学習アルゴリズムの欠如は、SNNにとって依然として課題である。
我々はグループニューロン(GN)と呼ばれる新しいタイプのニューロンを紹介する。
- 参考スコア(独自算出の注目度): 39.14228133571838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have emerged as a promising third generation
of neural networks, offering unique characteristics such as binary outputs,
high sparsity, and biological plausibility. However, the lack of effective
learning algorithms remains a challenge for SNNs. For instance, while
converting artificial neural networks (ANNs) to SNNs circumvents the need for
direct training of SNNs, it encounters issues related to conversion errors and
high inference time delays. In order to reduce or even eliminate conversion
errors while decreasing inference time-steps, we have introduced a novel type
of neuron called Group Neurons (GNs). One GN is composed of multiple
Integrate-and-Fire (IF) neurons as members, and its neural dynamics are
meticulously designed. Based on GNs, we have optimized the traditional ANN-SNN
conversion framework. Specifically, we replace the IF neurons in the SNNs
obtained by the traditional conversion framework with GNs. The resulting SNNs,
which utilize GNs, are capable of achieving accuracy levels comparable to ANNs
even within extremely short inference time-steps. The experiments on CIFAR10,
CIFAR100, and ImageNet datasets demonstrate the superiority of the proposed
methods in terms of both inference accuracy and latency. Code is available at
https://github.com/Lyu6PosHao/ANN2SNN_GN.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューラルネットワークの第3世代の有望な世代として登場し、バイナリ出力、高いスパーシリティ、生物学的可視性などのユニークな特徴を提供している。
しかし、効果的な学習アルゴリズムの欠如はSNNにとって依然として課題である。
例えば、人工知能ニューラルネットワーク(ANN)をSNNに変換することで、SNNの直接的なトレーニングの必要性を回避する一方で、変換エラーと高い推論時間遅延に関連する問題に直面する。
推論の時間ステップを減少させながら変換誤差を低減または除去するために,グループニューロン(GN)と呼ばれる新しいタイプのニューロンを導入した。
1つのGNは複数のIntegrated-and-Fire(IF)ニューロンをメンバーとして構成し、その神経力学は慎重に設計されている。
GNに基づいて従来のANN-SNN変換フレームワークを最適化した。
具体的には、従来の変換フレームワークによって得られたSNNのIFニューロンをGNに置き換える。
GNを利用した結果のSNNは、極端に短い推論時間ステップでもANNに匹敵する精度のレベルを達成することができる。
CIFAR10、CIFAR100、ImageNetデータセットの実験は、推論精度と遅延の両方の観点から提案手法の優位性を実証している。
コードはhttps://github.com/lyu6poshao/ann2snn_gnで入手できる。
関連論文リスト
- High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Fast-SNN: Fast Spiking Neural Network by Converting Quantized ANN [38.18008827711246]
スパイキングニューラルネットワーク(SNN)は、計算とエネルギー効率の利点を示している。
離散スパイク関数のため、ディープSNNをトレーニングすることは依然として課題である。
本稿では低レイテンシで高い性能を実現する高速SNNを提案する。
論文 参考訳(メタデータ) (2023-05-31T14:04:41Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SEENN: Towards Temporal Spiking Early-Exit Neural Networks [26.405775809170308]
スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的にもっともらしい代替品として人気が高まっている。
本研究では,SNNにおける時間経過の微調整について検討する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
論文 参考訳(メタデータ) (2023-04-02T15:57:09Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。