論文の概要: Temporal Surrogate Back-propagation for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2011.09964v1
- Date: Wed, 18 Nov 2020 08:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:18:37.344886
- Title: Temporal Surrogate Back-propagation for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための時間的サロゲートバックプロパゲーション
- Authors: Yukun Yang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は通常、ニューラルネットワーク(ANN)と比較してエネルギー効率が良い。
バックプロパゲーション(BP)は近年、ANNのトレーニングにおいて強力な力を示している。
しかし、スパイク挙動は微分不可能であるため、BPは直接SNNに適用することはできない。
- 参考スコア(独自算出の注目度): 2.291640606078406
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Spiking neural networks (SNN) are usually more energy-efficient as compared
to Artificial neural networks (ANN), and the way they work has a great
similarity with our brain. Back-propagation (BP) has shown its strong power in
training ANN in recent years. However, since spike behavior is
non-differentiable, BP cannot be applied to SNN directly. Although prior works
demonstrated several ways to approximate the BP-gradient in both spatial and
temporal directions either through surrogate gradient or randomness, they
omitted the temporal dependency introduced by the reset mechanism between each
step. In this article, we target on theoretical completion and investigate the
effect of the missing term thoroughly. By adding the temporal dependency of the
reset mechanism, the new algorithm is more robust to learning-rate adjustments
on a toy dataset but does not show much improvement on larger learning tasks
like CIFAR-10. Empirically speaking, the benefits of the missing term are not
worth the additional computational overhead. In many cases, the missing term
can be ignored.
- Abstract(参考訳): スパイキングニューラルネットワーク(snn)は通常、ニューラルネットワーク(ann)よりもエネルギー効率が良く、その働き方は脳と非常に似ています。
バックプロパゲーション(BP)は近年、ANNのトレーニングにおいて強力な力を示している。
しかし、スパイク挙動は微分不可能であるため、BPは直接SNNに適用することはできない。
先行研究は、代理勾配またはランダムネスによって、空間的および時間的方向のBP勾配を近似するいくつかの方法を示したが、各ステップ間のリセット機構によって導入された時間依存性を省略した。
本稿では, 理論的な完了を目標とし, 欠落項の効果を徹底的に検討する。
リセット機構の時間依存性を追加することで、新しいアルゴリズムはおもちゃのデータセットの学習率調整よりも頑健になるが、cifar-10のような大きな学習タスクではそれほど改善はない。
経験的に言えば、不足している用語の利点は、追加の計算オーバーヘッドに値しない。
多くの場合、欠落した項は無視できる。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Exact Gradient Computation for Spiking Neural Networks Through Forward
Propagation [39.33537954568678]
従来のニューラルネットワークに代わるものとして、スパイキングニューラルネットワーク(SNN)が登場している。
本稿では,SNNの正確な勾配を計算できるEmphforward propagation (FP)と呼ばれる新しいトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-18T20:28:21Z) - Spiking Neural Networks for event-based action recognition: A new task to understand their advantage [1.4348901037145936]
スパイキングニューラルネットワーク(SNN)は、そのユニークな時間的ダイナミクスによって特徴づけられる。
フィードフォワードニューラルネットワークにおいて、スパイキングニューロンが時間的特徴抽出を可能にする方法を示す。
また、繰り返しSNNがLSTMに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-29T16:22:46Z) - Temporal Efficient Training of Spiking Neural Network via Gradient
Re-weighting [29.685909045226847]
脳にインスパイアされたスパイクニューロンネットワーク(SNN)は、事象駆動的でエネルギー効率のよい特徴から、広く研究の関心を集めている。
シュロゲート勾配による現在の直接訓練手法は、一般化性に乏しいSNNに結果をもたらす。
SGによる勾配降下時の運動量の減少を補うための時間的効率訓練(TET)手法を導入する。
論文 参考訳(メタデータ) (2022-02-24T08:02:37Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Backpropagation with Biologically Plausible Spatio-Temporal Adjustment
For Training Deep Spiking Neural Networks [5.484391472233163]
ディープラーニングの成功は、バックプロパゲーションとは分離できない。
本研究では, 膜電位とスパイクの関係を再考する, 生体可塑性空間調整法を提案する。
次に,生物学的に妥当な時間的調整を提案し,時間的次元のスパイクを横切る誤差を伝搬させる。
論文 参考訳(メタデータ) (2021-10-17T15:55:51Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Temporal Spike Sequence Learning via Backpropagation for Deep Spiking
Neural Networks [14.992756670960008]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の良いイベント駆動ニューロモルフィックプロセッサの計算と実装に適している。
深部SNNを訓練するためのTSSL-BP(Temporal Spike Sequence Learning Backpropagation)法を提案する。
論文 参考訳(メタデータ) (2020-02-24T05:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。