論文の概要: Quantized Context Based LIF Neurons for Recurrent Spiking Neural Networks in 45nm
- arxiv url: http://arxiv.org/abs/2404.18066v1
- Date: Sun, 28 Apr 2024 04:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 18:02:54.149485
- Title: Quantized Context Based LIF Neurons for Recurrent Spiking Neural Networks in 45nm
- Title(参考訳): 45nmリカレントスパイキングニューラルネットワークのための量子コンテキストベースLIFニューロン
- Authors: Sai Sukruth Bezugam, Yihao Wu, JaeBum Yoo, Dmitri Strukov, Bongjin Kim,
- Abstract要約: 本研究では,コンテキストベースリカレントスパイクニューラルネットワーク(RSNN)の最初のハードウェア実装を提案する。
本稿では,RSNNのスパース活動を利用したハードウェア・ソフトウェア・コード署名手法により開発されたCLIFニューロン(qCLIF)の量子化バージョンについて述べる。
我々の分析は10から200qCLIFニューロンのネットワーク構成にまたがっており、最大82kのシナプスを1.86mm2のフットプリントでサポートし、スケーラビリティと効率性を実証している。
- 参考スコア(独自算出の注目度): 0.3332435791857516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we propose the first hardware implementation of a context-based recurrent spiking neural network (RSNN) emphasizing on integrating dual information streams within the neocortical pyramidal neurons specifically Context- Dependent Leaky Integrate and Fire (CLIF) neuron models, essential element in RSNN. We present a quantized version of the CLIF neuron (qCLIF), developed through a hardware-software codesign approach utilizing the sparse activity of RSNN. Implemented in a 45nm technology node, the qCLIF is compact (900um^2) and achieves a high accuracy of 90% despite 8 bit quantization on DVS gesture classification dataset. Our analysis spans a network configuration from 10 to 200 qCLIF neurons, supporting up to 82k synapses within a 1.86 mm^2 footprint, demonstrating scalability and efficiency
- Abstract(参考訳): 本研究では,大脳新皮質錐体ニューロンにおける2重情報ストリームの統合を重視したコンテキストベースリカレントスパイクニューラルネットワーク(RSNN)の最初のハードウェア実装を提案する。
本稿では,RSNNのスパース活動を利用したハードウェア・ソフトウェア・コード署名手法により開発されたCLIFニューロン(qCLIF)の量子化バージョンについて述べる。
45nm技術ノードに実装され、qCLIFはコンパクト(900um^2)であり、DVSジェスチャー分類データセットの8ビット量子化にもかかわらず、90%の精度を達成する。
我々の分析は10から200qCLIFニューロンのネットワーク構成にまたがっており、最大82kのシナプスを1.86mm^2フットプリントでサポートし、スケーラビリティと効率性を実証している。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function [0.5046831208137847]
この研究は、量子化されたニューラルネットワークの最近の進歩とスパイクニューラルネットワークのギャップを埋めることを目的としている。
これは、シグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提案した量子化関数は、4つの人気のあるベンチマーク上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-05-30T09:42:05Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - Enabling Resource-Aware Mapping of Spiking Neural Networks via Spatial
Decomposition [4.059246535401608]
タイルベースのニューロモーフィックハードウェアへのスパイクニューラルネットワーク(SNN)ベースの応用は、ますます困難になりつつある。
ニューロン毎に多くのシナプス前接続を持つ複雑なSNNモデルでは、タイルリソースに適合するようにトレーニング後にいくつかの接続を切断する必要がある。
本稿では,多くのシナプス前結合を持つニューロン機能を,同種神経ユニットの配列に分解する新しいアンローリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-19T21:04:46Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Hardware Implementation of Spiking Neural Networks Using
Time-To-First-Spike Encoding [5.709318189772638]
ハードウェアベースのスパイクニューラルネットワーク(SNN)は、認知コンピューティングシステムの有望な候補と見なされている。
本研究では, 時間的バックプロパゲーションを用いた情報伝達を行うSNNを訓練する。
512個の隠れニューロンを持つ時間的に符号化されたSNNは、MNISTテストセットの96.90%の精度を示した。
論文 参考訳(メタデータ) (2020-06-09T03:31:15Z) - Training of Quantized Deep Neural Networks using a Magnetic Tunnel
Junction-Based Synapse [23.08163992580639]
深層ニューラルネットワークの計算複雑性とメモリ強度のソリューションとして、量子ニューラルネットワーク(QNN)が積極的に研究されている。
磁気トンネル接合(MTJ)デバイスがQNNトレーニングにどのように役立つかを示す。
本稿では,MTJ動作を用いた新しいシナプス回路を導入し,量子化更新をサポートする。
論文 参考訳(メタデータ) (2019-12-29T11:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。