論文の概要: Efficient Training of Spiking Neural Networks with Temporally-Truncated
Local Backpropagation through Time
- arxiv url: http://arxiv.org/abs/2201.07210v1
- Date: Mon, 13 Dec 2021 07:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 16:15:20.426387
- Title: Efficient Training of Spiking Neural Networks with Temporally-Truncated
Local Backpropagation through Time
- Title(参考訳): 時間的局所的バックプロパゲーションを用いたスパイクニューラルネットワークの効率的な学習
- Authors: Wenzhe Guo, Mohammed E. Fouda, Ahmed M. Eltawil, and Khaled Nabil
Salama
- Abstract要約: 訓練用スパイクニューラルネットワーク(SNN)は、複雑な神経力学と発火機能における本質的な非微分性のため、依然として困難である。
本研究では,局所教師付きトレーニング手法と時間的制約付きBPTTアルゴリズムを統合したSNNの効率的かつ直接的なトレーニングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.926678651590519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Directly training spiking neural networks (SNNs) has remained challenging due
to complex neural dynamics and intrinsic non-differentiability in firing
functions. The well-known backpropagation through time (BPTT) algorithm
proposed to train SNNs suffers from large memory footprint and prohibits
backward and update unlocking, making it impossible to exploit the potential of
locally-supervised training methods. This work proposes an efficient and direct
training algorithm for SNNs that integrates a locally-supervised training
method with a temporally-truncated BPTT algorithm. The proposed algorithm
explores both temporal and spatial locality in BPTT and contributes to
significant reduction in computational cost including GPU memory utilization,
main memory access and arithmetic operations. We thoroughly explore the design
space concerning temporal truncation length and local training block size and
benchmark their impact on classification accuracy of different networks running
different types of tasks. The results reveal that temporal truncation has a
negative effect on the accuracy of classifying frame-based datasets, but leads
to improvement in accuracy on dynamic-vision-sensor (DVS) recorded datasets. In
spite of resulting information loss, local training is capable of alleviating
overfitting. The combined effect of temporal truncation and local training can
lead to the slowdown of accuracy drop and even improvement in accuracy. In
addition, training deep SNNs models such as AlexNet classifying CIFAR10-DVS
dataset leads to 7.26% increase in accuracy, 89.94% reduction in GPU memory,
10.79% reduction in memory access, and 99.64% reduction in MAC operations
compared to the standard end-to-end BPTT.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)を直接訓練することは、複雑な神経力学と発火機能における固有の非微分性のために依然として難しい。
時間によるバックプロパゲーション(BPTT)アルゴリズムは、SNNをトレーニングするために提案され、大きなメモリフットプリントに悩まされ、後方のアンロックと更新を禁止している。
本研究では,局所教師付きトレーニング手法と時間的制約付きBPTTアルゴリズムを統合したSNNの効率的かつ直接的なトレーニングアルゴリズムを提案する。
提案手法はbpttの時間的および空間的局所性を探索し,gpuメモリ利用,メインメモリアクセス,演算演算など計算コストの大幅な削減に寄与する。
時間的切り離し長と局所訓練ブロックサイズに関する設計空間を徹底的に検討し、異なる種類のタスクを実行する異なるネットワークの分類精度への影響をベンチマークする。
その結果,時間的切り離しはフレームベースデータセットの分類精度に悪影響を及ぼすが,動的ビジョンセンサ(DVS)記録データセットの精度は向上することがわかった。
情報喪失が生じたにもかかわらず、地元の訓練は過度な適合を和らげることができる。
時間的切り離しと局所訓練の併用効果により、精度低下が遅くなり、精度が向上する。
さらに、alexnetによるcifar10-dvsデータセットの分類のような深層snsモデルのトレーニングは、7.26%の精度向上、89.94%のgpuメモリ削減、10.79%のメモリアクセス削減、99.64%のmac操作削減につながる。
関連論文リスト
- Exploiting Symmetric Temporally Sparse BPTT for Efficient RNN Training [20.49255973077044]
この研究は、デルタRNNのトレーニングアルゴリズムを記述し、後方伝播フェーズにおける時間的間隔を利用してエッジでのトレーニングの計算要求を減らした。
その結果,Fluent Speech Commandsデータセット上で,56kパラメータのDelta LSTMをトレーニングするための行列演算の$sim$80%の削減効果が認められた。
提案したDelta RNNトレーニングは,限られたコンピューティングリソースを持つエッジデバイス上でのオンラインインクリメンタル学習に有用であることを示す。
論文 参考訳(メタデータ) (2023-12-14T23:07:37Z) - Estimating Post-Synaptic Effects for Online Training of Feed-Forward
SNNs [0.27016900604393124]
スパイクニューラルネットワーク(SNN)におけるオンライン学習の実現は、イベントベースのモデルを開発する上で重要なステップである。
本稿では, フィードフォワードSNNのトレーニングのためのOTPE(Online Training with Postsynaptic Estimates)を提案する。
本研究では, 時間的効果の新たな近似法を用いて, マルチ層ネットワークのスケーリング改善を示す。
論文 参考訳(メタデータ) (2023-11-07T16:53:39Z) - Towards Memory- and Time-Efficient Backpropagation for Training Spiking
Neural Networks [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングのためのエネルギー効率の高いモデルである。
本研究では,学習効率を大幅に向上させつつ,高い性能を達成できる空間学習時間(SLTT)法を提案する。
BPTTと比較して, メモリコストとトレーニング時間は, それぞれ70%以上, 50%以上削減されている。
論文 参考訳(メタデータ) (2023-02-28T05:01:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Backpropagation with Biologically Plausible Spatio-Temporal Adjustment
For Training Deep Spiking Neural Networks [5.484391472233163]
ディープラーニングの成功は、バックプロパゲーションとは分離できない。
本研究では, 膜電位とスパイクの関係を再考する, 生体可塑性空間調整法を提案する。
次に,生物学的に妥当な時間的調整を提案し,時間的次元のスパイクを横切る誤差を伝搬させる。
論文 参考訳(メタデータ) (2021-10-17T15:55:51Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and
Spatially for Efficient DNN Training [81.85361544720885]
アクティベーション、ウェイト、グラデーションの精度を徐々に高めるプログレッシブ分数量子化を統合したFracTrainを提案します。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。