論文の概要: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- arxiv url: http://arxiv.org/abs/2301.09522v1
- Date: Mon, 23 Jan 2023 16:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 13:09:20.281846
- Title: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- Title(参考訳): 規則化とカットオフによるイベント駆動スパイクニューラルネットワークの最適化
- Authors: Dengyu Wu and Gaojie Jin and Han Yu and Xinping Yi and Xiaowei Huang
- Abstract要約: スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、エネルギー効率の利点を生かした、人工知能ニューラルネットワーク(ANN)の変種である。
イベントベースの入力は、SNNの非同期動作機構のおかげで、SNNをよりうまく活用することができる。
AOI-SNNの正則化と遮断という2つの新しい最適化手法が提案されている。
- 参考スコア(独自算出の注目度): 27.49173382510852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs), a variant of artificial neural networks
(ANNs) with the benefit of energy efficiency, have achieved the accuracy close
to its ANN counterparts, on benchmark datasets such as CIFAR10/100 and
ImageNet. However, comparing with frame-based input (e.g., images), event-based
inputs from e.g., Dynamic Vision Sensor (DVS) can make a better use of SNNs
thanks to the SNNs' asynchronous working mechanism. In this paper, we
strengthen the marriage between SNNs and event-based inputs with a proposal to
consider anytime optimal inference SNNs, or AOI-SNNs, which can terminate
anytime during the inference to achieve optimal inference result. Two novel
optimisation techniques are presented to achieve AOI-SNNs: a regularisation and
a cutoff. The regularisation enables the training and construction of SNNs with
optimised performance, and the cutoff technique optimises the inference of SNNs
on event-driven inputs. We conduct an extensive set of experiments on multiple
benchmark event-based datasets, including CIFAR10-DVS, N-Caltech101 and DVS128
Gesture. The experimental results demonstrate that our techniques are superior
to the state-of-the-art with respect to the accuracy and latency.
- Abstract(参考訳): エネルギー効率の恩恵を受ける人工知能ニューラルネットワーク(ANN)の亜種であるスパイキングニューラルネットワーク(SNN)は、CIFAR10/100やImageNetといったベンチマークデータセット上で、ANNのそれに近い精度を達成した。
しかし、フレームベースの入力(イメージなど)と比較すると、ダイナミックビジョンセンサー(DVS)のようなイベントベースの入力は、SNNの非同期動作機構のおかげで、SNNをよりうまく活用することができる。
本稿では,SNNとイベントベース入力の結婚を,任意の時間最適SNN(AOI-SNN)を考慮し,推論中にいつでも終了し,最適な推論結果を得るための提案によって強化する。
AOI-SNNの正則化と遮断という2つの新しい最適化手法が提案されている。
正規化により、最適化性能を持つSNNのトレーニングと構築が可能となり、イベント駆動入力に対するSNNの推論を最適化する。
我々は、CIFAR10-DVS、N-Caltech101、DVS128 Gestureなど、複数のベンチマークイベントベースのデータセットで広範な実験を行う。
実験の結果,本手法は精度とレイテンシにおいて最先端技術よりも優れていることがわかった。
関連論文リスト
- Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。