論文の概要: BioGrad: Biologically Plausible Gradient-Based Learning for Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2110.14092v1
- Date: Wed, 27 Oct 2021 00:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 06:42:17.193539
- Title: BioGrad: Biologically Plausible Gradient-Based Learning for Spiking
Neural Networks
- Title(参考訳): BioGrad:スパイクニューラルネットワークのための生物学的にプラズブルな勾配学習
- Authors: Guangzhi Tang, Neelesh Kumar, Ioannis Polykretis, Konstantinos P.
Michmizos
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、AI問題に対するエネルギー効率が高く、非常に並列で、低レイテンシのソリューションを提供している。
これらの計算的利点を利用するには、SNNは脳にインスパイアされたニューロモルフィックの原則に従う学習アルゴリズムによって訓練される必要がある。
本稿では,機能的にバックプロップと等価なSNNのための生物学的に妥当な勾配に基づく学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNN) are delivering energy-efficient, massively
parallel, and low-latency solutions to AI problems, facilitated by the emerging
neuromorphic chips. To harness these computational benefits, SNN need to be
trained by learning algorithms that adhere to brain-inspired neuromorphic
principles, namely event-based, local, and online computations. Yet, the
state-of-the-art SNN training algorithms are based on backprop that does not
follow the above principles. Due to its limited biological plausibility, the
application of backprop to SNN requires non-local feedback pathways for
transmitting continuous-valued errors, and relies on gradients from future
timesteps. The introduction of biologically plausible modifications to backprop
has helped overcome several of its limitations, but limits the degree to which
backprop is approximated, which hinders its performance. We propose a
biologically plausible gradient-based learning algorithm for SNN that is
functionally equivalent to backprop, while adhering to all three neuromorphic
principles. We introduced multi-compartment spiking neurons with local
eligibility traces to compute the gradients required for learning, and a
periodic "sleep" phase to further improve the approximation to backprop during
which a local Hebbian rule aligns the feedback and feedforward weights. Our
method achieved the same level of performance as backprop with multi-layer
fully connected SNN on MNIST (98.13%) and the event-based N-MNIST (97.59%)
datasets. We deployed our learning algorithm on Intel's Loihi to train a
1-hidden-layer network for MNIST, and obtained 93.32% test accuracy while
consuming 400 times less energy per training sample than BioGrad on GPU. Our
work shows that optimal learning is feasible in neuromorphic computing, and
further pursuing its biological plausibility can better capture the benefits of
this emerging computing paradigm.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、新たなニューロモルフィックチップによって促進される、AI問題に対するエネルギー効率、大規模並列、低レイテンシソリューションを提供する。
これらの計算の利点を利用するには、SNNは脳にインスパイアされたニューロモルフィックの原則、すなわちイベントベース、ローカル、オンラインの計算に準拠する学習アルゴリズムによって訓練される必要がある。
しかし、最先端のSNNトレーニングアルゴリズムは、上記の原則に従わないバックプロップに基づいている。
生物学的確率が限られているため、バックプロップをSNNに適用するには、連続的な値の誤差を伝達するために非局所的なフィードバック経路が必要である。
バックプロップの生物学的に妥当な修正の導入は、いくつかの制限を克服する助けとなったが、バックプロップが近似される程度が制限され、性能が損なわれた。
本稿では,3つの神経型原理を順守しつつ,機能的にバックプロップと等価なSNNのための生物学的に妥当な勾配に基づく学習アルゴリズムを提案する。
学習に必要な勾配を計算するために,局所的適性トレースを持つマルチコンパートメントスパイキングニューロンと,局所的なヘビアン則がフィードバックとフィードフォワードウェイトを整合するバックプロップの近似をさらに改善するための周期的"スリープ"フェーズを導入した。
mnist (98.13%) とイベントベースのn-mnist (97.59%) データセット上でのマルチ層完全接続snnとバックプロップと同等の性能を達成した。
学習アルゴリズムをIntelのLoihiにデプロイし、MNIST用の1層ネットワークをトレーニングし、93.32%のテスト精度を得たが、GPU上のBioGradの400倍のエネルギーを消費した。
我々の研究は、ニューロモルフィックコンピューティングにおいて最適な学習が実現可能であることを示し、その生物学的な妥当性を追求することで、この新興コンピューティングパラダイムの利点をよりよく捉えることができることを示した。
関連論文リスト
- BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - PC-SNN: Supervised Learning with Local Hebbian Synaptic Plasticity based
on Predictive Coding in Spiking Neural Networks [1.6172800007896282]
本稿では,予測符号化理論に触発された新しい学習アルゴリズムを提案する。
教師あり学習を完全自律的に行うことができ、バックプロップとして成功することを示す。
この手法は,最先端の多層SNNと比較して,良好な性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T09:56:02Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Exact Gradient Computation for Spiking Neural Networks Through Forward
Propagation [39.33537954568678]
従来のニューラルネットワークに代わるものとして、スパイキングニューラルネットワーク(SNN)が登場している。
本稿では,SNNの正確な勾配を計算できるEmphforward propagation (FP)と呼ばれる新しいトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-18T20:28:21Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。