論文の概要: Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns
- arxiv url: http://arxiv.org/abs/2301.12356v1
- Date: Sun, 29 Jan 2023 04:22:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:34:24.578956
- Title: Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns
- Title(参考訳): 効率的なスパイクパターンを用いた高速スパイクニューラルネットワークの活用
- Authors: Guobin Shen, Dongcheng Zhao and Yi Zeng
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
- 参考スコア(独自算出の注目度): 4.8416725611508244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) use discrete spike sequences to transmit
information, which significantly mimics the information transmission of the
brain. Although this binarized form of representation dramatically enhances the
energy efficiency and robustness of SNNs, it also leaves a large gap between
the performance of SNNs and Artificial Neural Networks based on real values.
There are many different spike patterns in the brain, and the dynamic synergy
of these spike patterns greatly enriches the representation capability.
Inspired by spike patterns in biological neurons, this paper introduces the
dynamic Burst pattern and designs the Leaky Integrate and Fire or Burst (LIFB)
neuron that can make a trade-off between short-time performance and dynamic
temporal performance from the perspective of network information capacity. LIFB
neuron exhibits three modes, resting, Regular spike, and Burst spike. The burst
density of the neuron can be adaptively adjusted, which significantly enriches
the characterization capability. We also propose a decoupling method that can
losslessly decouple LIFB neurons into equivalent LIF neurons, which
demonstrates that LIFB neurons can be efficiently implemented on neuromorphic
hardware. We conducted experiments on the static datasets CIFAR10, CIFAR100,
and ImageNet, which showed that we greatly improved the performance of the SNNs
while significantly reducing the network latency. We also conducted experiments
on neuromorphic datasets DVS-CIFAR10 and NCALTECH101 and showed that we
achieved state-of-the-art with a small network structure.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
この二項化表現は、SNNのエネルギー効率とロバスト性を大幅に向上させるが、実値に基づくSNNとニューラルネットワークの性能のギャップも大きい。
脳には多くの異なるスパイクパターンがあり、これらのスパイクパターンの動的シナジーは表現能力を大幅に向上させる。
本稿では,生体ニューロンのスパイクパターンに触発されて動的バーストパターンを導入し,ネットワーク情報キャパシティの観点から短時間の性能と動的時間的性能のトレードオフを生かしたLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
LIFBニューロンは、安静、規則スパイク、バーストスパイクの3つのモードを示す。
ニューロンのバースト密度は適応的に調整できるため、キャラクタリゼーション能力が著しく向上する。
また, LIFBニューロンを等価なLIFニューロンに無作為に分離し, LIFBニューロンをニューロモルフィックハードウェア上で効率的に実装できることを実証するデカップリング手法を提案する。
我々は,静的データセットCIFAR10,CIFAR100,ImageNetの実験を行い,SNNの性能を大幅に改善し,ネットワーク遅延を大幅に低減した。
また, ニューロモルフィックデータセットDVS-CIFAR10とNCALTECH101の実験を行い, ネットワーク構造を小さくして最先端化を実現した。
関連論文リスト
- Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Deep Pulse-Coupled Neural Networks [31.65350290424234]
ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
論文 参考訳(メタデータ) (2023-12-24T08:26:00Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spikformer: When Spiking Neural Network Meets Transformer [102.91330530210037]
本稿では,スパイキングニューラルネットワーク(SNN)と自己認識機構という,生物学的にもっとも有効な2つの構造について考察する。
我々は、スパイキング・セルフ・アテンション(SSA)と、スパイキング・トランスフォーマー(Spikformer)という強力なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T14:16:49Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。