論文の概要: Online Spatio-Temporal Learning in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2007.12723v2
- Date: Thu, 8 Oct 2020 12:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 05:47:52.935456
- Title: Online Spatio-Temporal Learning in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおけるオンライン時空間学習
- Authors: Thomas Bohnstingl, Stanis{\l}aw Wo\'zniak, Wolfgang Maass, Angeliki
Pantazi and Evangelos Eleftheriou
- Abstract要約: オンライン学習は、最近研究コミュニティの注目を集め、BPTTを近似するアプローチや、SNNに適用する生物学的に有望なスキームに焦点をあてている。
ここでは、空間的および時間的勾配成分の明確な分離に基づく別の視点を示す。
私たちは、オンラインスパイキング時間学習(OSTL)という、深層SNNのための新しいオンライン学習アルゴリズムの第一原理から派生した。
浅いネットワークの場合、OSTLはBPTTと同等の勾配であり、BPTT同値勾配を持つSNNのオンライントレーニングを初めて行うことができる。さらに、提案された定式化はSNNアーキテクチャのクラスを公開する。
- 参考スコア(独自算出の注目度): 1.6624384368855523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biological neural networks are equipped with an inherent capability to
continuously adapt through online learning. This aspect remains in stark
contrast to learning with error backpropagation through time (BPTT) applied to
recurrent neural networks (RNNs), or recently to biologically-inspired spiking
neural networks (SNNs). BPTT involves offline computation of the gradients due
to the requirement to unroll the network through time. Online learning has
recently regained the attention of the research community, focusing either on
approaches that approximate BPTT or on biologically-plausible schemes applied
to SNNs. Here we present an alternative perspective that is based on a clear
separation of spatial and temporal gradient components. Combined with insights
from biology, we derive from first principles a novel online learning algorithm
for deep SNNs, called online spatio-temporal learning (OSTL). For shallow
networks, OSTL is gradient-equivalent to BPTT enabling for the first time
online training of SNNs with BPTT-equivalent gradients. In addition, the
proposed formulation unveils a class of SNN architectures trainable online at
low time complexity. Moreover, we extend OSTL to a generic form, applicable to
a wide range of network architectures, including networks comprising long
short-term memory (LSTM) and gated recurrent units (GRU). We demonstrate the
operation of our algorithm on various tasks from language modelling to speech
recognition and obtain results on par with the BPTT baselines. The proposed
algorithm provides a framework for developing succinct and efficient online
training approaches for SNNs and in general deep RNNs.
- Abstract(参考訳): 生物学的ニューラルネットワークは、オンライン学習を通じて継続的に適応する固有の能力を備えている。
この側面は、リカレントニューラルネットワーク(RNN)や、最近では生物学的にインスパイアされたスパイクニューラルネットワーク(SNN)に適用されるエラーバックプロパゲーション(BPTT)による学習とは対照的である。
BPTTは、時間を通してネットワークをアンロールする必要があるため、勾配をオフラインで計算する。
オンライン学習は最近の研究コミュニティの注目を集め、BPTTを近似するアプローチや、SNNに適用する生物学的に有望なスキームに焦点を当てている。
本稿では,空間勾配成分と時間勾配成分の明瞭な分離に基づく別の視点を提案する。
生物学の知見と組み合わせて、オンライン時空間学習(OSTL)と呼ばれる深層SNNのための新しいオンライン学習アルゴリズムを第一原理として導いた。
浅いネットワークでは、OSTLはBPTTと等価であり、BPTTと等価な勾配を持つSNNのオンライントレーニングを初めて行うことができる。
さらに、提案された定式化では、オンラインでトレーニング可能なSNNアーキテクチャのクラスを低速で公開している。
さらに,OSTLを汎用的な形式に拡張し,長い短期メモリ(LSTM)とゲートリカレントユニット(GRU)からなるネットワークを含む,幅広いネットワークアーキテクチャに適用する。
本稿では,言語モデルから音声認識まで様々なタスクにおけるアルゴリズムの動作を実演し,bpttベースラインと同等の結果を得る。
提案アルゴリズムは, SNN や一般深層 RNN のための簡潔で効率的なオンライントレーニング手法を開発するためのフレームワークを提供する。
関連論文リスト
- Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Accurate online training of dynamical spiking neural networks through
Forward Propagation Through Time [1.8515971640245998]
最近開発されたBPTTの代替手段が、スパイクニューラルネットワークにどのように適用できるかを示す。
FPTTは、損失に対する動的に規則化されたリスクを最小化しようとする。
FPTTで訓練したSNNは、オンラインBPTT近似よりも優れており、時間的分類タスクにおいてオフラインBPTT精度に近づいたり、超えたりしている。
論文 参考訳(メタデータ) (2021-12-20T13:44:20Z) - Brain-Inspired Learning on Neuromorphic Substrates [5.279475826661643]
本稿では、ニューロモルフィック基板のための実用的なオンライン学習アルゴリズムの設計のための数学的枠組みを提供する。
具体的には、リアルタイムリカレントラーニング(RTRL)と、スパイキングニューラルネットワーク(SNN)をトレーニングするための生物学的に妥当な学習規則との直接的な関連を示す。
我々はブロック対角ジャコビアンに基づくスパース近似を動機付け、アルゴリズムの計算複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-22T17:56:59Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。