論文の概要: Deep Residual Learning in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2102.04159v6
- Date: Sat, 22 Jan 2022 03:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 05:24:43.197315
- Title: Deep Residual Learning in Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークにおける深層残留学習
- Authors: Wei Fang, Zhaofei Yu, Yanqi Chen, Tiejun Huang, Timoth\'ee Masquelier,
Yonghong Tian
- Abstract要約: スパイキングニューラルネットワーク(SNN)は勾配に基づくアプローチの最適化の難しさを示す。
ディープラーニングにおけるResNetの大きな成功を考えると、ディープラーニングで深層SNNをトレーニングするのは自然なことでしょう。
本研究では,深部SNNにおける残差学習を実現するために,スパイク要素ワイド(SEW)ResNetを提案する。
- 参考スコア(独自算出の注目度): 36.16846259899793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Spiking Neural Networks (SNNs) present optimization difficulties for
gradient-based approaches due to discrete binary activation and complex
spatial-temporal dynamics. Considering the huge success of ResNet in deep
learning, it would be natural to train deep SNNs with residual learning.
Previous Spiking ResNet mimics the standard residual block in ANNs and simply
replaces ReLU activation layers with spiking neurons, which suffers the
degradation problem and can hardly implement residual learning. In this paper,
we propose the spike-element-wise (SEW) ResNet to realize residual learning in
deep SNNs. We prove that the SEW ResNet can easily implement identity mapping
and overcome the vanishing/exploding gradient problems of Spiking ResNet. We
evaluate our SEW ResNet on ImageNet, DVS Gesture, and CIFAR10-DVS datasets, and
show that SEW ResNet outperforms the state-of-the-art directly trained SNNs in
both accuracy and time-steps. Moreover, SEW ResNet can achieve higher
performance by simply adding more layers, providing a simple method to train
deep SNNs. To our best knowledge, this is the first time that directly training
deep SNNs with more than 100 layers becomes possible. Our codes are available
at https://github.com/fangwei123456/Spike-Element-Wise-ResNet.
- Abstract(参考訳): Deep Spiking Neural Networks (SNNs) は、離散的なバイナリアクティベーションと複雑な時空間ダイナミクスによる勾配に基づくアプローチの最適化の難しさを示す。
深層学習におけるresnetの大きな成功を考えると、残りの学習で深層snsを訓練するのは自然なことだ。
以前のSpking ResNetは、ANNの標準的な残留ブロックを模倣し、単にReLU活性化層をスパイキングニューロンに置き換える。
本稿では,深部SNNにおける残差学習を実現するために,スパイク要素ワイド(SEW)ResNetを提案する。
我々はSEW ResNetが容易にIDマッピングを実装し、スパイキング・レスネットの勾配問題を克服できることを証明する。
我々は、ImageNet、DVS Gesture、CIFAR10-DVSデータセット上のSEW ResNetを評価し、SEW ResNetが最先端のSNNよりも正確かつ時間的に優れていることを示す。
さらに、sew resnetはレイヤーを追加するだけで高いパフォーマンスを実現し、深層snsを訓練する簡単な方法を提供する。
私たちの知る限りでは、100層以上のディープSNNを直接トレーニングできるのはこれが初めてです。
私たちのコードはhttps://github.com/fangwei123456/Spike-Element-Wise-ResNetで利用可能です。
関連論文リスト
- An Exact Mapping From ReLU Networks to Spiking Neural Networks [3.1701886344065255]
本稿では,Rectified Linear Units (ReLUs) を用いたネットワークから,ニューロン毎のスパイクを正確に1回発射するSNNへの正確なマッピングを提案する。
より一般的には、任意の深部ReLUネットワークが、パフォーマンスを失うことなく、エネルギー効率のよい単一スパイクニューラルネットワークに置き換えられることを示す。
論文 参考訳(メタデータ) (2022-12-23T18:31:09Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - Advancing Residual Learning towards Powerful Deep Spiking Neural
Networks [16.559670769601038]
残留学習とショートカットは、ディープニューラルネットワークをトレーニングするための重要なアプローチとして証明されている。
MS-ResNetは、直接訓練されたSNNの深さを大幅に拡張することができる。
MS-ResNet 104はImageNetで76.02%の精度を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:47:21Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Going Deeper With Directly-Trained Larger Spiking Neural Networks [20.40894876501739]
スパイキングニューラルネットワーク(SNN)は、バイオユースブルな情報とイベント駆動信号処理のためのコーディングを約束している。
しかし、SNNのユニークな動作モードにより、従来のネットワークよりもトレーニングが困難になる。
CIF依存型バッチ正規化法(tpladBN)を提案する。
論文 参考訳(メタデータ) (2020-10-29T07:15:52Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - Skip Connections Matter: On the Transferability of Adversarial Examples
Generated with ResNets [83.12737997548645]
スキップ接続は、現在最先端のディープニューラルネットワーク(DNN)の重要な構成要素である
スキップ接続を使用することで、高度に転送可能な逆例を簡単に生成できる。
我々は、ResNets、DenseNets、Inceptions、Inception-ResNet、Squeeze-and-Excitation Network (SENet)を含む最先端DNNに対する包括的な転送攻撃を行う。
論文 参考訳(メタデータ) (2020-02-14T12:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。