論文の概要: Exact Gradient Computation for Spiking Neural Networks Through Forward
Propagation
- arxiv url: http://arxiv.org/abs/2210.15415v1
- Date: Tue, 18 Oct 2022 20:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 11:55:16.654586
- Title: Exact Gradient Computation for Spiking Neural Networks Through Forward
Propagation
- Title(参考訳): 前方伝播によるスパイクニューラルネットワークの厳密な勾配計算
- Authors: Jane H. Lee, Saeid Haghighatshoar, Amin Karbasi
- Abstract要約: 従来のニューラルネットワークに代わるものとして、スパイキングニューラルネットワーク(SNN)が登場している。
本稿では,SNNの正確な勾配を計算できるEmphforward propagation (FP)と呼ばれる新しいトレーニングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 39.33537954568678
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spiking neural networks (SNN) have recently emerged as alternatives to
traditional neural networks, owing to energy efficiency benefits and capacity
to better capture biological neuronal mechanisms. However, the classic
backpropagation algorithm for training traditional networks has been
notoriously difficult to apply to SNN due to the hard-thresholding and
discontinuities at spike times. Therefore, a large majority of prior work
believes exact gradients for SNN w.r.t. their weights do not exist and has
focused on approximation methods to produce surrogate gradients. In this paper,
(1) by applying the implicit function theorem to SNN at the discrete spike
times, we prove that, albeit being non-differentiable in time, SNNs have
well-defined gradients w.r.t. their weights, and (2) we propose a novel
training algorithm, called \emph{forward propagation} (FP), that computes exact
gradients for SNN. FP exploits the causality structure between the spikes and
allows us to parallelize computation forward in time. It can be used with other
algorithms that simulate the forward pass, and it also provides insights on why
other related algorithms such as Hebbian learning and also recently-proposed
surrogate gradient methods may perform well.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生物の神経機構をよりよく捉えるためのエネルギー効率と能力のため、従来のニューラルネットワークに代わるものとして最近登場した。
しかしながら、従来のネットワークをトレーニングするための古典的なバックプロパゲーションアルゴリズムは、スパイク時の強固な保持と不連続のためにsnnに適用することが難しいことで悪名高い。
したがって、以前の研究の大部分は、SNNの重量の正確な勾配は存在しないと考えており、代理勾配を生成する近似法に焦点を当てている。
本稿では,(1)離散スパイク時間に暗黙の関数定理を適用することにより,SNNが時間的に微分不可能であるにもかかわらず,その重みを適切に定義した勾配を持つことを示すとともに,(2)SNNの正確な勾配を計算する新しいトレーニングアルゴリズムである「emph{forward propagation} (FP)」を提案する。
FPはスパイク間の因果構造を利用し、時間内に計算を並列化する。
フォワードパスをシミュレートする他のアルゴリズムと併用することができ、また、ヘビー学習や最近発表されたサーロゲート勾配法のような他の関連するアルゴリズムがうまく機能する理由についての洞察を提供する。
関連論文リスト
- Directly Training Temporal Spiking Neural Network with Sparse Surrogate Gradient [8.516243389583702]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)は、イベントベースのコンピューティングとエネルギー効率の良い機能によって、多くの注目を集めている。
本研究では,SNNの一般化能力を向上させるため,MSG(Masked Surrogate Gradients)を提案する。
論文 参考訳(メタデータ) (2024-06-28T04:21:32Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Temporal Efficient Training of Spiking Neural Network via Gradient
Re-weighting [29.685909045226847]
脳にインスパイアされたスパイクニューロンネットワーク(SNN)は、事象駆動的でエネルギー効率のよい特徴から、広く研究の関心を集めている。
シュロゲート勾配による現在の直接訓練手法は、一般化性に乏しいSNNに結果をもたらす。
SGによる勾配降下時の運動量の減少を補うための時間的効率訓練(TET)手法を導入する。
論文 参考訳(メタデータ) (2022-02-24T08:02:37Z) - BioGrad: Biologically Plausible Gradient-Based Learning for Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、AI問題に対するエネルギー効率が高く、非常に並列で、低レイテンシのソリューションを提供している。
これらの計算的利点を利用するには、SNNは脳にインスパイアされたニューロモルフィックの原則に従う学習アルゴリズムによって訓練される必要がある。
本稿では,機能的にバックプロップと等価なSNNのための生物学的に妥当な勾配に基づく学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-27T00:07:25Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding [26.654533157221973]
本稿では,カーネルベースの動的しきい値とデンドライトを用いて,深層SNNにタイム・ツー・ファースト・スパイク・コーディングを組み込むことによって,その欠点を克服する手法を提案する。
提案手法は,バースト符号化法と比較して,推定遅延とスパイク回数を22%,1%以下に削減できる。
論文 参考訳(メタデータ) (2020-03-26T04:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。