論文の概要: Are training trajectories of deep single-spike and deep ReLU network
equivalent?
- arxiv url: http://arxiv.org/abs/2306.08744v1
- Date: Wed, 14 Jun 2023 21:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:21:21.175633
- Title: Are training trajectories of deep single-spike and deep ReLU network
equivalent?
- Title(参考訳): 深い単一スパイクと深いReLUネットワークの訓練軌跡は等価か?
- Authors: Ana Stanojevic, Stanis{\l}aw Wo\'zniak, Guillaume Bellec, Giovanni
Cherubini, Angeliki Pantazi and Wulfram Gerstner
- Abstract要約: バックプロパゲーションによる深層スパイクニューラルネットワーク(SNN)の訓練は、人工ニューラルネットワーク(ANN)よりも難しい
我々は理論とシミュレーションでTTFS-SNNの学習力学を解析する。
提案手法は,CIFAR10上での深部ConvNetsと同じ精度を実現し,さらに大きなPLACES365データセットをANNと比較して精度を損なうことなく微調整することができる。
- 参考スコア(独自算出の注目度): 3.1701886344065255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Communication by binary and sparse spikes is a key factor for the energy
efficiency of biological brains. However, training deep spiking neural networks
(SNNs) with backpropagation is harder than with artificial neural networks
(ANNs), which is puzzling given that recent theoretical results provide exact
mapping algorithms from ReLU to time-to-first-spike (TTFS) SNNs. Building upon
these results, we analyze in theory and in simulation the learning dynamics of
TTFS-SNNs. Our analysis highlights that even when an SNN can be mapped exactly
to a ReLU network, it cannot always be robustly trained by gradient descent.
The reason for that is the emergence of a specific instance of the
vanishing-or-exploding gradient problem leading to a bias in the gradient
descent trajectory in comparison with the equivalent ANN. After identifying
this issue we derive a generic solution for the network initialization and SNN
parameterization which guarantees that the SNN can be trained as robustly as
its ANN counterpart. Our theoretical findings are illustrated in practice on
image classification datasets. Our method achieves the same accuracy as deep
ConvNets on CIFAR10 and enables fine-tuning on the much larger PLACES365
dataset without loss of accuracy compared to the ANN. We argue that the
combined perspective of conversion and fine-tuning with robust gradient descent
in SNN will be decisive to optimize SNNs for hardware implementations needing
low latency and resilience to noise and quantization.
- Abstract(参考訳): 二分数とスパーススパイクによるコミュニケーションは、生物学的脳のエネルギー効率の重要な要素である。
しかしながら、バックプロパゲーションによるディープスパイクニューラルネットワーク(SNN)のトレーニングは、ReLUからTTFS(Time-to-first-Spike)SNNへの正確なマッピングアルゴリズムを提供することを考えると、人工知能ニューラルネットワーク(ANN)よりも難しい。
これらの結果に基づいて,TTFS-SNNの学習力学を理論的およびシミュレーションで解析する。
我々の分析は、SNNをReLUネットワークに正確にマッピングできたとしても、勾配降下によって常に頑健に訓練できないことを強調している。
その理由は、それに相当するANNと比較して勾配降下軌道に偏りをもたらす、消滅または爆発する勾配問題の特定の例の出現である。
この問題を特定した後、ネットワーク初期化とSNNパラメータ化のための一般的なソリューションを導き、SNNがANNと同等に堅牢にトレーニングできることを保証する。
画像分類データセットについて理論的知見を実際に示す。
提案手法は,CIFAR10上での深部ConvNetsと同じ精度を実現し,さらに大きなPLACES365データセットをANNと比較して精度を損なうことなく微調整することができる。
変換の観点とSNNの頑健な勾配勾配による微調整の組み合わせは、低レイテンシとノイズや量子化に対するレジリエンスを必要とするハードウェア実装において、SNNを最適化することが決定的に重要であると我々は主張する。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z) - SiamSNN: Siamese Spiking Neural Networks for Energy-Efficient Object
Tracking [20.595208488431766]
SiamSNNは、視覚オブジェクト追跡ベンチマークであるTB2013, VOT2016, GOT-10kにおいて、短いレイテンシと低い精度の損失を達成する最初のディープSNNトラッカーである。
SiamSNNは、ニューロモルフィックチップTrueNorth上で低エネルギー消費とリアルタイムを実現する。
論文 参考訳(メタデータ) (2020-03-17T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。