論文の概要: Training Spiking Neural Networks with Local Tandem Learning
- arxiv url: http://arxiv.org/abs/2210.04532v1
- Date: Mon, 10 Oct 2022 10:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:52:13.568737
- Title: Training Spiking Neural Networks with Local Tandem Learning
- Title(参考訳): 局所タンデム学習を用いたスパイクニューラルネットワークの訓練
- Authors: Qu Yang, Jibin Wu, Malu Zhang, Yansong Chua, Xinchao Wang, Haizhou Li
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
- 参考スコア(独自算出の注目度): 96.32026780517097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are shown to be more biologically plausible
and energy efficient over their predecessors. However, there is a lack of an
efficient and generalized training method for deep SNNs, especially for
deployment on analog computing substrates. In this paper, we put forward a
generalized learning rule, termed Local Tandem Learning (LTL). The LTL rule
follows the teacher-student learning approach by mimicking the intermediate
feature representations of a pre-trained ANN. By decoupling the learning of
network layers and leveraging highly informative supervisor signals, we
demonstrate rapid network convergence within five training epochs on the
CIFAR-10 dataset while having low computational complexity. Our experimental
results have also shown that the SNNs thus trained can achieve comparable
accuracies to their teacher ANNs on CIFAR-10, CIFAR-100, and Tiny ImageNet
datasets. Moreover, the proposed LTL rule is hardware friendly. It can be
easily implemented on-chip to perform fast parameter calibration and provide
robustness against the notorious device non-ideality issues. It, therefore,
opens up a myriad of opportunities for training and deployment of SNN on
ultra-low-power mixed-signal neuromorphic computing chips.10
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に妥当でエネルギー効率が高いことが示されている。
しかし、特にアナログコンピューティング基板への展開のために、深層snsのための効率的で一般化されたトレーニング方法が欠如している。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習ルールを提案する。
LTLルールは、事前学習されたANNの中間特徴表現を模倣することにより、教師が学習するアプローチに従う。
ネットワークレイヤの学習を分離し,情報量の高いスーパーバイザ信号を活用することで,計算複雑性を低く抑えながら,cifar-10データセット上の5つのトレーニング期間内に高速ネットワーク収束を実現する。
CIFAR-10, CIFAR-100, Tiny ImageNetデータセット上でSNNが教師のANNと同等の精度を達成できることを示す実験結果も得られた。
さらに、提案されたltlルールはハードウェアフレンドリである。
高速パラメータキャリブレーションを実行し、悪名高いデバイス非理想問題に対して堅牢性を提供するために、オンチップで容易に実装できる。
したがって、超低消費電力混合信号ニューロモルフィックコンピューティングチップ上でSNNの訓練と展開の機会は無数にある。
関連論文リスト
- The Robustness of Spiking Neural Networks in Communication and its Application towards Network Efficiency in Federated Learning [6.9569682335746235]
スパイキングニューラルネットワーク(SNN)は最近、組み込みデバイスでのオンチップ学習に多大な関心を集めている。
本稿では,フェデレートラーニングにおける雑音の多いコミュニケーション下でのSNNの本質的ロバスト性について検討する。
FLトレーニングにおける帯域幅の削減を目的とした,TopKスパシフィケーションを用いた新しいフェデレートラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-19T13:37:18Z) - TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons [1.7056768055368383]
スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
論文 参考訳(メタデータ) (2023-06-22T04:25:27Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。