論文の概要: Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2007.01204v1
- Date: Thu, 2 Jul 2020 15:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:44:50.745984
- Title: Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks
- Title(参考訳): ディープスパイクニューラルネットワークを用いたパターン認識のためのプログレッシブタンデム学習
- Authors: Jibin Wu, Chenglin Xu, Daquan Zhou, Haizhou Li, Kay Chen Tan
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 80.15411508088522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have shown clear advantages over traditional
artificial neural networks (ANNs) for low latency and high computational
efficiency, due to their event-driven nature and sparse communication. However,
the training of deep SNNs is not straightforward. In this paper, we propose a
novel ANN-to-SNN conversion and layer-wise learning framework for rapid and
efficient pattern recognition, which is referred to as progressive tandem
learning of deep SNNs. By studying the equivalence between ANNs and SNNs in the
discrete representation space, a primitive network conversion method is
introduced that takes full advantage of spike count to approximate the
activation value of analog neurons. To compensate for the approximation errors
arising from the primitive network conversion, we further introduce a
layer-wise learning method with an adaptive training scheduler to fine-tune the
network weights. The progressive tandem learning framework also allows hardware
constraints, such as limited weight precision and fan-in connections, to be
progressively imposed during training. The SNNs thus trained have demonstrated
remarkable classification and regression capabilities on large-scale object
recognition, image reconstruction, and speech separation tasks, while requiring
at least an order of magnitude reduced inference time and synaptic operations
than other state-of-the-art SNN implementations. It, therefore, opens up a
myriad of opportunities for pervasive mobile and embedded devices with a
limited power budget.
- Abstract(参考訳): スパイキングニューラルネットワーク(snn)は、イベント駆動の性質とスパース通信のため、低レイテンシと高い計算効率のために、従来のニューラルネットワーク(anns)よりも明確なアドバンテージを示している。
しかし、深層SNNの訓練は簡単ではない。
本稿では,深層SNNのプログレッシブタンデム学習と呼ばれる,高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
離散表現空間におけるANNとSNNの等価性を研究することにより、スパイクカウントをフル活用してアナログニューロンの活性化値を近似するプリミティブネットワーク変換法が導入された。
プリミティブなネットワーク変換から生じる近似誤差を補うために,適応型トレーニングスケジューラを用いたレイヤワイズ学習手法を導入し,ネットワーク重みを微調整する。
プログレッシブタンデム学習フレームワークはまた、トレーニング中に、制限された重量精度やファンイン接続などのハードウェア制約を徐々に課すことができる。
これらのSNNは、大規模オブジェクト認識、画像再構成、音声分離タスクにおいて顕著な分類と回帰能力を示し、同時に、他の最先端のSNN実装よりも、推論時間とシナプス操作を極端に削減する必要がある。
そのため、限られた電力予算で、モバイルおよび組み込みデバイスに普及する無数の機会を開くことができる。
関連論文リスト
- Training-free Conversion of Pretrained ANNs to SNNs for Low-Power and High-Performance Applications [23.502136316777058]
人工ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場した
SNNの既存の教師付き学習アルゴリズムは、ANNのアルゴリズムよりもはるかに多くのメモリと時間を必要とする。
提案手法は,事前学習したANNモデルを,追加訓練を伴わずに,高性能なSNNに変換する。
論文 参考訳(メタデータ) (2024-09-05T09:14:44Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - Online Spatio-Temporal Learning in Deep Neural Networks [1.6624384368855523]
オンライン学習は、最近研究コミュニティの注目を集め、BPTTを近似するアプローチや、SNNに適用する生物学的に有望なスキームに焦点をあてている。
ここでは、空間的および時間的勾配成分の明確な分離に基づく別の視点を示す。
私たちは、オンラインスパイキング時間学習(OSTL)という、深層SNNのための新しいオンライン学習アルゴリズムの第一原理から派生した。
浅いネットワークの場合、OSTLはBPTTと同等の勾配であり、BPTT同値勾配を持つSNNのオンライントレーニングを初めて行うことができる。さらに、提案された定式化はSNNアーキテクチャのクラスを公開する。
論文 参考訳(メタデータ) (2020-07-24T18:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。