論文の概要: Sparse Distributed Memory using Spiking Neural Networks on Nengo
- arxiv url: http://arxiv.org/abs/2109.03111v2
- Date: Fri, 3 Dec 2021 17:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 22:43:40.462552
- Title: Sparse Distributed Memory using Spiking Neural Networks on Nengo
- Title(参考訳): 神経のスパイキングニューラルネットワークを用いたスパース分散メモリ
- Authors: Rohan Deepak Ajwani, Arshika Lalan, Basabdatta Sen Bhattacharya, Joy
Bose
- Abstract要約: 我々は,Nengoフレームワーク上に実装されたSNNに基づくスパース分散メモリ(SDM)を提案する。
SDM設計の不可欠な部分として,Nengo上でSNNを用いて相関行列メモリ(CMM)を実装した。
本研究の目的は,従来のSDMと比較してSNNベースのSDMがいかに優れているかを理解することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Spiking Neural Network (SNN) based Sparse Distributed Memory
(SDM) implemented on the Nengo framework. We have based our work on previous
work by Furber et al, 2004, implementing SDM using N-of-M codes. As an integral
part of the SDM design, we have implemented Correlation Matrix Memory (CMM)
using SNN on Nengo. Our SNN implementation uses Leaky Integrate and Fire (LIF)
spiking neuron models on Nengo. Our objective is to understand how well
SNN-based SDMs perform in comparison to conventional SDMs. Towards this, we
have simulated both conventional and SNN-based SDM and CMM on Nengo. We observe
that SNN-based models perform similarly as the conventional ones. In order to
evaluate the performance of different SNNs, we repeated the experiment using
Adaptive-LIF, Spiking Rectified Linear Unit, and Izhikevich models and obtained
similar results. We conclude that it is indeed feasible to develop some types
of associative memories using spiking neurons whose memory capacity and other
features are similar to the performance without SNNs. Finally we have
implemented an application where MNIST images, encoded with N-of-M codes, are
associated with their labels and stored in the SNN-based SDM.
- Abstract(参考訳): 我々は,Nengoフレームワーク上に実装されたSNNに基づくスパース分散メモリ(SDM)を提案する。
我々は、これまでの furber et al, 2004 の作業に基づいて、n-of-m コードを用いて sdm を実装した。
SDM設計の不可欠な部分として,Nengo上でSNNを用いて相関行列メモリ(CMM)を実装した。
我々のSNN実装では、Nengo上のLeaky Integrate and Fire(LIF)スパイキングニューロンモデルを用いています。
本研究の目的は,従来のSDMと比較してSNNベースのSDMがいかに優れているかを理解することである。
そこで我々は,Nengo上の従来のSDMとSNNベースのCMMの両方をシミュレーションした。
我々は,SNNモデルが従来のモデルと同じような性能を示すことを観察した。
異なるSNNの性能を評価するために,Adaptive-LIF, Spiking Rectified Linear Unit, Izhikevichモデルを用いて実験を繰り返し, 同様の結果を得た。
記憶能力などの特徴がsnsなしのパフォーマンスと類似しているスパイキングニューロンを用いて、いくつかの種類の連想記憶を発達させることは可能であると結論づけた。
最後に、N-of-M符号で符号化されたMNIST画像がラベルと関連付けられ、SNNベースのSDMに格納されるアプリケーションを実装した。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Optimal ANN-SNN Conversion with Group Neurons [39.14228133571838]
スパイキングニューラルネットワーク(SNN)は、有望な第3世代のニューラルネットワークとして登場した。
効果的な学習アルゴリズムの欠如は、SNNにとって依然として課題である。
我々はグループニューロン(GN)と呼ばれる新しいタイプのニューロンを紹介する。
論文 参考訳(メタデータ) (2024-02-29T11:41:12Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Examining the Robustness of Spiking Neural Networks on Non-ideal
Memristive Crossbars [4.184276171116354]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本研究では,SNNの性能に及ぼすクロスバー非理想性と本質性の影響について検討した。
論文 参考訳(メタデータ) (2022-06-20T07:07:41Z) - tinySNN: Towards Memory- and Energy-Efficient Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)モデルは、高い精度を提供できるため、一般的に好適である。
しかし、資源とエネルギーを制約した組込みプラットフォームにそのようなモデルを適用することは非効率である。
本稿では,SNN処理のメモリおよびエネルギー要求を最適化する小型SNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-17T09:40:40Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。