論文の概要: Advancing Deep Residual Learning by Solving the Crux of Degradation in
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2201.07209v2
- Date: Thu, 17 Feb 2022 07:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-05 00:41:21.693484
- Title: Advancing Deep Residual Learning by Solving the Crux of Degradation in
Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークにおける劣化曲線の解法による深層残差学習の促進
- Authors: Yifan Hu, Yujie Wu, Lei Deng, Guoqi Li
- Abstract要約: 残留学習とショートカットは、ディープニューラルネットワークをトレーニングするための重要なアプローチとして証明されている。
本稿では,SNNの深度を大幅に拡張できる新しい残差ブロックを提案する。
- 参考スコア(独自算出の注目度): 21.26300397341615
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the rapid progress of neuromorphic computing, the inadequate depth
and the resulting insufficient representation power of spiking neural networks
(SNNs) severely restrict their application scope in practice. Residual learning
and shortcuts have been evidenced as an important approach for training deep
neural networks, but rarely did previous work assess their applicability to the
characteristics of spike-based communication and spatiotemporal dynamics. This
negligence leads to impeded information flow and the accompanying degradation
problem. In this paper, we identify the crux and then propose a novel residual
block for SNNs, which is able to significantly extend the depth of directly
trained SNNs, e.g., up to 482 layers on CIFAR-10 and 104 layers on ImageNet,
without observing any slight degradation problem. We validate the effectiveness
of our methods on both frame-based and neuromorphic datasets, and our
SRM-ResNet104 achieves a superior result of 76.02% accuracy on ImageNet, the
first time in the domain of directly trained SNNs. The great energy efficiency
is estimated and the resulting networks need on average only one spike per
neuron for classifying an input sample. We believe our powerful and scalable
modeling will provide a strong support for further exploration of SNNs.
- Abstract(参考訳): ニューロモルフィックコンピューティングの急速な進歩にもかかわらず、スパイクニューラルネットワーク(SNN)の不十分な深さと結果として生じる表現力は、実際に適用範囲を厳しく制限している。
残存学習とショートカットはディープニューラルネットワークのトレーニングに重要なアプローチとして証明されているが、スパイクベースのコミュニケーションと時空間ダイナミクスの特性にその適用性を評価することは滅多になかった。
この無視は情報の流れを阻害し、それに伴う劣化問題を引き起こす。
そこで本論文では,snsの新たな残差ブロックを提案する。これは,cifar-10上の最大482層,imagenet上の104層といった,直接訓練されたsnsの深さをわずかに劣化する問題を観察することなく大きく拡張することができる。
SRM-ResNet104は、直接訓練されたSNNの領域において、ImageNetにおいて76.02%の精度で優れた結果が得られる。
大いなるエネルギー効率を推定し、その結果得られるネットワークは、入力サンプルを分類するために平均1つのスパイクのみを必要とする。
当社の強力でスケーラブルなモデリングは、SNNのさらなる探索に強力なサポートを提供すると信じています。
関連論文リスト
- STOP: Spatiotemporal Orthogonal Propagation for Weight-Threshold-Leakage Synergistic Training of Deep Spiking Neural Networks [11.85044871205734]
疎疎なバイナリアクティベーションに基づくディープニューラルネットワーク(SNN)モデルは、効率的で高精度なSNNディープラーニングアルゴリズムを欠いている。
我々のアルゴリズムは、シナプス重みを発射する完全相乗的学習アルゴリズムと、ニューロンのしきい値とスパイク因子を併用することにより、SNNの精度を向上させる。
統合された時間的フォワードトレースベースのフレームワークの下では、前方パスにすべての時間ステップのニューラルステートを格納するための巨大なメモリ要件を緩和する。
本手法は,資源に制限があるが高精度なインサイト学習が望まれるエッジインテリジェントシナリオに対して,より有効な方法である。
論文 参考訳(メタデータ) (2024-11-17T14:15:54Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - PC-SNN: Supervised Learning with Local Hebbian Synaptic Plasticity based
on Predictive Coding in Spiking Neural Networks [1.6172800007896282]
本稿では,予測符号化理論に触発された新しい学習アルゴリズムを提案する。
教師あり学習を完全自律的に行うことができ、バックプロップとして成功することを示す。
この手法は,最先端の多層SNNと比較して,良好な性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T09:56:02Z) - Multi-Level Firing with Spiking DS-ResNet: Enabling Better and Deeper
Directly-Trained Spiking Neural Networks [19.490903216456758]
スパイキングニューラルネットワーク(SNN)は、非同期離散性とスパース特性を持つニューラルネットワークである。
既存のスパイキング抑制残差ネットワーク(Spiking DS-ResNet)に基づくマルチレベル焼成(MLF)手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:39:46Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Advancing Residual Learning towards Powerful Deep Spiking Neural
Networks [16.559670769601038]
残留学習とショートカットは、ディープニューラルネットワークをトレーニングするための重要なアプローチとして証明されている。
MS-ResNetは、直接訓練されたSNNの深さを大幅に拡張することができる。
MS-ResNet 104はImageNetで76.02%の精度を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:47:21Z) - HIRE-SNN: Harnessing the Inherent Robustness of Energy-Efficient Deep
Spiking Neural Networks by Training with Crafted Input Noise [13.904091056365765]
SNNトレーニングアルゴリズムは,入力ノイズを発生させるとともに,追加のトレーニング時間も発生しない。
通常の訓練された直接入力SNNと比較して、トレーニングされたモデルでは、最大13.7%の分類精度が向上した。
また,本モデルでは,レートコード入力を学習したSNNに対して,攻撃生成画像の分類性能が向上あるいは類似していることが特筆すべき点である。
論文 参考訳(メタデータ) (2021-10-06T16:48:48Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。