論文の概要: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- arxiv url: http://arxiv.org/abs/2301.09522v3
- Date: Tue, 5 Mar 2024 11:57:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 03:56:32.561448
- Title: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- Title(参考訳): 規則化とカットオフによるイベント駆動スパイクニューラルネットワークの最適化
- Authors: Dengyu Wu and Gaojie Jin and Han Yu and Xinping Yi and Xiaowei Huang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
- 参考スコア(独自算出の注目度): 33.91830001268308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural network (SNN), next generation of artificial neural network
(ANN) that more closely mimic natural neural networks offers promising
improvements in computational efficiency. However, current SNN training
methodologies predominantly employ a fixed timestep approach, overlooking the
potential of dynamic inference in SNN. In this paper, we strengthen the
marriage between SNN and event-driven processing with a proposal to consider
cutoff in SNN, which can terminate SNN anytime during the inference to achieve
efficient inference. Two novel optimisation techniques are presented to achieve
inference efficient SNN: a Top-K cutoff and a regularisation. The Top-K cutoff
technique optimises the inference of SNN, and the regularisation are proposed
to affect the training and construct SNN with optimised performance for cutoff.
We conduct an extensive set of experiments on multiple benchmark frame-based
datsets, such as Cifar10/100, Tiny-ImageNet and event-based datasets, including
CIFAR10-DVS, N-Caltech101 and DVS128 Gesture. The experimental results
demonstrate the effectiveness of our techniques in both ANN-to-SNN conversion
and direct training, affirming their compatibility and potential benefits in
enhancing accuracy and reducing inference timestep when integrated with
existing methods. Code available:
https://github.com/Dengyu-Wu/SNN-Regularisation-Cutoff
- Abstract(参考訳): ニューラルネットワークをより密接に模倣した次世代の人工知能ニューラルネットワーク(ANN)であるSpiking Neural Network(SNN)は、計算効率の有望な改善を提供する。
しかし、現在のSNNトレーニング手法は、SNNの動的推論の可能性を見越して、固定時間ステップアプローチを主に採用している。
本稿では,SNNとイベント駆動処理の結婚を,推論中にいつでもSNNを終了させ,効率的な推論を実現するSNNの遮断を検討することを提案する。
推論効率の良いSNNを実現するために,Top-Kカットオフと正規化という2つの新しい最適化手法を提案する。
トップkカットオフ手法はsnnの推論を最適化し、この正規化はカットオフの最適化性能を持つsnnのトレーニングと構築に影響を与える。
我々は、CIFAR10-DVS、N-Caltech101、DVS128 Gestureなど、Cifar10/100、Tiny-ImageNet、イベントベースのデータセットなど、複数のベンチマークフレームベースのダットセットで広範な実験を行う。
実験により,ANN-to-SNN変換とダイレクトトレーニングの両手法の有効性を実証し,既存の手法と統合した場合の精度向上と推論時間の短縮に両手法の互換性と潜在的なメリットを確認した。
コード提供: https://github.com/dengyu-wu/snn-regularization-cutoff
関連論文リスト
- Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。