論文の概要: A Supervised Learning Algorithm for Multilayer Spiking Neural Networks
Based on Temporal Coding Toward Energy-Efficient VLSI Processor Design
- arxiv url: http://arxiv.org/abs/2001.05348v1
- Date: Wed, 8 Jan 2020 03:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:33:59.267204
- Title: A Supervised Learning Algorithm for Multilayer Spiking Neural Networks
Based on Temporal Coding Toward Energy-Efficient VLSI Processor Design
- Title(参考訳): エネルギー効率の高いvlsiプロセッサ設計に向けた時間符号化に基づく多層スパイクニューラルネットワークの教師あり学習アルゴリズム
- Authors: Yusuke Sakemi, Kai Morino, Takashi Morie, Kazuyuki Aihara
- Abstract要約: スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、スパイクの形で情報を処理できる脳にインスパイアされた数学的モデルである。
時間符号化に基づくSNNのための新しい教師付き学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.6872737601772956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are brain-inspired mathematical models with
the ability to process information in the form of spikes. SNNs are expected to
provide not only new machine-learning algorithms, but also energy-efficient
computational models when implemented in VLSI circuits. In this paper, we
propose a novel supervised learning algorithm for SNNs based on temporal
coding. A spiking neuron in this algorithm is designed to facilitate analog
VLSI implementations with analog resistive memory, by which ultra-high energy
efficiency can be achieved. We also propose several techniques to improve the
performance on a recognition task, and show that the classification accuracy of
the proposed algorithm is as high as that of the state-of-the-art temporal
coding SNN algorithms on the MNIST dataset. Finally, we discuss the robustness
of the proposed SNNs against variations that arise from the device
manufacturing process and are unavoidable in analog VLSI implementation. We
also propose a technique to suppress the effects of variations in the
manufacturing process on the recognition performance.
- Abstract(参考訳): スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、スパイクの形で情報を処理できる脳モデルである。
SNNは、新しい機械学習アルゴリズムだけでなく、VLSI回路で実装されたエネルギー効率の高い計算モデルも提供する予定である。
本稿では,時間符号化に基づくSNNのための新しい教師付き学習アルゴリズムを提案する。
このアルゴリズムのスパイクニューロンは、アナログ抵抗性メモリを用いたアナログVLSI実装を容易にし、超高エネルギー効率を実現するように設計されている。
また、認識タスクの性能向上のためのいくつかの手法を提案し、提案アルゴリズムの分類精度は、MNISTデータセット上の最先端の時間符号化SNNアルゴリズムと同程度であることを示す。
最後に、デバイス製造プロセスから生じる変化に対して提案するSNNの堅牢性について論じ、アナログVLSI実装では避けられない。
また, 製造工程の変化が認識性能に及ぼす影響を抑制する手法を提案する。
関連論文リスト
- Stepwise Weighted Spike Coding for Deep Spiking Neural Networks [7.524721345903027]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンのスパイキング動作を模倣しようと試みている。
本稿では,スパイクにおける情報のエンコーディングを強化するために,SWS(Stepwise Weighted Spike)符号化方式を提案する。
このアプローチは、ニューラルネットワークの各ステップにおけるスパイクの重要性を重み付け、高い性能と低エネルギー消費を達成することでスパイクを圧縮する。
論文 参考訳(メタデータ) (2024-08-30T12:39:25Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - Recent Advances in Scalable Energy-Efficient and Trustworthy Spiking
Neural networks: from Algorithms to Technology [11.479629320025673]
スパイキングニューラルネットワーク(SNN)は、幅広い信号処理アプリケーションのために、ディープニューラルネットワークの魅力的な代替品となっている。
我々は、低レイテンシとエネルギー効率のSNNを効率的に訓練し、拡張するためのアルゴリズムと最適化の進歩について述べる。
デプロイ可能なSNNシステム構築における研究の今後の可能性について論じる。
論文 参考訳(メタデータ) (2023-12-02T19:47:00Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Open the box of digital neuromorphic processor: Towards effective
algorithm-hardware co-design [0.08431877864777441]
本稿では,アルゴリズム設計者がSNNアルゴリズムを正確にベンチマークするための実践的なアプローチを提案する。
ビデオ処理とオンライン学習におけるSNNアルゴリズムのエネルギー効率について述べる。
論文 参考訳(メタデータ) (2023-03-27T14:03:11Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。