論文の概要: Real Spike: Learning Real-valued Spikes for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2210.06686v1
- Date: Thu, 13 Oct 2022 02:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:02:39.126751
- Title: Real Spike: Learning Real-valued Spikes for Spiking Neural Networks
- Title(参考訳): real spike: スパイクニューラルネットワークのための実価値スパイクの学習
- Authors: Yufei Guo and Liwen Zhang and Yuanpei Chen and Xinyi Tong and Xiaode
Liu and YingLei Wang and Xuhui Huang and Zhe Ma
- Abstract要約: 脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、イベント駆動でエネルギー効率のよい特徴により、最近ますます注目を集めている。
本稿では,SNNがパラメータを効果的に削減し,推論効率を向上するウェイトシェアリング機構の恩恵を受けない可能性について論じる。
この仮定により、Real Spikeと名付けられたSNNのトレーニング推論デカップリング手法が提案されている。
- 参考スコア(独自算出の注目度): 11.580346172925323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain-inspired spiking neural networks (SNNs) have recently drawn more and
more attention due to their event-driven and energy-efficient characteristics.
The integration of storage and computation paradigm on neuromorphic hardwares
makes SNNs much different from Deep Neural Networks (DNNs). In this paper, we
argue that SNNs may not benefit from the weight-sharing mechanism, which can
effectively reduce parameters and improve inference efficiency in DNNs, in some
hardwares, and assume that an SNN with unshared convolution kernels could
perform better. Motivated by this assumption, a training-inference decoupling
method for SNNs named as Real Spike is proposed, which not only enjoys both
unshared convolution kernels and binary spikes in inference-time but also
maintains both shared convolution kernels and Real-valued Spikes during
training. This decoupling mechanism of SNN is realized by a re-parameterization
technique. Furthermore, based on the training-inference-decoupled idea, a
series of different forms for implementing Real Spike on different levels are
presented, which also enjoy shared convolutions in the inference and are
friendly to both neuromorphic and non-neuromorphic hardware platforms. A
theoretical proof is given to clarify that the Real Spike-based SNN network is
superior to its vanilla counterpart. Experimental results show that all
different Real Spike versions can consistently improve the SNN performance.
Moreover, the proposed method outperforms the state-of-the-art models on both
non-spiking static and neuromorphic datasets.
- Abstract(参考訳): 脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、イベント駆動でエネルギー効率のよい特徴により、最近ますます注目を集めている。
記憶と計算のパラダイムをニューロモルフィックなハードウェアに統合することで、SNNはDeep Neural Networks (DNN)と大きく異なる。
本稿では、DNNのパラメータを効果的に削減し、一部のハードウェアにおいて推論効率を向上し、非共有畳み込みカーネルを持つSNNがより良い性能を発揮すると仮定する重み付け機構の恩恵を受けない可能性があると論じる。
この仮定により、Real Spikeと名付けられたSNNのトレーニング推論デカップリング法が提案されている。これは、推論時間における非共有畳み込みカーネルとバイナリスパイクの両方を楽しむだけでなく、トレーニング中に共有畳み込みカーネルとReal-valued Spikesの両方を維持できる。
SNNのこの疎結合機構は再パラメータ化手法により実現される。
さらに、トレーニング推論と分離されたアイデアに基づいて、様々なレベルでReal Spikeを実装するための一連の異なるフォームが提示され、推論における共有畳み込みも享受でき、ニューロモルフィックと非ニューロモルフィックハードウェアプラットフォームの両方に親和性がある。
リアルスパイクベースのSNNネットワークがバニラネットワークよりも優れていることを示す理論的証明が与えられる。
実験の結果,すべての異なるReal SpikeバージョンがSNNの性能を継続的に改善できることがわかった。
さらに, 提案手法は, 静的データセットとニューロモルフィックデータセットの両方において, 最先端モデルよりも優れている。
関連論文リスト
- A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。