論文の概要: L4-Norm Weight Adjustments for Converted Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2111.09446v1
- Date: Wed, 17 Nov 2021 23:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 15:15:07.593589
- Title: L4-Norm Weight Adjustments for Converted Spiking Neural Networks
- Title(参考訳): 変換スパイクニューラルネットワークのL4ノーム重み調整
- Authors: Jason Allred, Kaushik Roy
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、その潜在的なエネルギー効率の利点について検討されている。
非スパイク人工ニューラルネットワークは通常、バックプロパゲーションを使用して勾配降下で訓練される。
一般的な手法の1つは、スパイクニューラルネットワークをトレーニングし、スパイクネットワークに変換することである。
- 参考スコア(独自算出の注目度): 6.417011237981518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) are being explored for their potential energy
efficiency benefits due to sparse, event-driven computation. Non-spiking
artificial neural networks are typically trained with stochastic gradient
descent using backpropagation. The calculation of true gradients for
backpropagation in spiking neural networks is impeded by the non-differentiable
firing events of spiking neurons. On the other hand, using approximate
gradients is effective, but computationally expensive over many time steps. One
common technique, then, for training a spiking neural network is to train a
topologically-equivalent non-spiking network, and then convert it to an spiking
network, replacing real-valued inputs with proportionally rate-encoded Poisson
spike trains. Converted SNNs function sufficiently well because the mean
pre-firing membrane potential of a spiking neuron is proportional to the dot
product of the input rate vector and the neuron weight vector, similar to the
functionality of a non-spiking network. However, this conversion only considers
the mean and not the temporal variance of the membrane potential. As the
standard deviation of the pre-firing membrane potential is proportional to the
L4-norm of the neuron weight vector, we propose a weight adjustment based on
the L4-norm during the conversion process in order to improve classification
accuracy of the converted network.
- Abstract(参考訳): spiking neural networks (snn) は、分散したイベント駆動計算によるエネルギー効率の利点を追求している。
非スパイク人工ニューラルネットワークは通常、バックプロパゲーションを用いて確率勾配降下で訓練される。
スパイクニューラルネットワークにおけるバックプロパゲーションの真の勾配の計算は、スパイクニューロンの非微分的な発火現象によって妨げられる。
一方、近似勾配を用いることは効果的であるが、多くの時間ステップで計算コストがかかる。
スパイクニューラルネットワークをトレーニングするための一般的なテクニックは、トポロジカルに等価な非スパイクネットワークをトレーニングし、それをスパイクネットワークに変換し、実際の値入力を比例レートエンコードされたポアソンスパイクトレインに置き換える。
スパイキングニューロンの平均膜電位は、非スパイキングネットワークの機能と同様、入力速度ベクトルおよびニューロン重量ベクトルのドット積に比例するため、変換SNNは十分に機能する。
しかし、この変換は膜電位の平均と時間的ばらつきだけを考慮していない。
プレファイリング膜電位の標準偏差はニューロンの重みベクトルのL4ノルムに比例するので、変換過程におけるL4ノルムに基づく重み調整を提案し、変換されたネットワークの分類精度を向上させる。
関連論文リスト
- Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Nonparametric regression using over-parameterized shallow ReLU neural networks [10.339057554827392]
ニューラルネットワークは、ある滑らかな関数クラスから関数を学習するために、最小収束率(対数係数まで)を達成することができることを示す。
回帰関数は、滑らかな$alpha(d+3)/2$あるいは浅いニューラルネットワークに対応する変分空間を持つH"古い空間から来ていると仮定される。
副産物として、浅いReLUニューラルネットワークの局所ラデマッハ複雑性に対する新しいサイズ非依存境界を導出する。
論文 参考訳(メタデータ) (2023-06-14T07:42:37Z) - Optimal rates of approximation by shallow ReLU$^k$ neural networks and
applications to nonparametric regression [12.21422686958087]
本研究では、浅いReLU$k$のニューラルネットワークに対応する変動空間の近似能力について検討する。
滑らかさの低い関数に対しては、変動ノルムの観点から近似率が確立される。
浅層ニューラルネットワークは,H"古い関数の学習に最適な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-04T06:35:02Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Hessian Aware Quantization of Spiking Neural Networks [1.90365714903665]
ニューロモルフィックアーキテクチャは、可変ビット精度と局所ビット精度の大規模並列計算を可能にする。
SNNトレーニングの現在の勾配に基づく方法は、複数の状態変数を持つ複雑なニューロンモデルを使用する。
我々は、勾配に基づくトレーニングと互換性を保ちつつ、状態変数の数を4倍に削減する単純化されたニューロンモデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T05:27:34Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。