論文の概要: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- arxiv url: http://arxiv.org/abs/2301.09522v2
- Date: Tue, 1 Aug 2023 17:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 17:56:19.559785
- Title: Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff
- Title(参考訳): 規則化とカットオフによるイベント駆動スパイクニューラルネットワークの最適化
- Authors: Dengyu Wu and Gaojie Jin and Han Yu and Xinping Yi and Xiaowei Huang
- Abstract要約: スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、エネルギー効率の利点を生かした、人工知能ニューラルネットワーク(ANN)の変種である。
イベントベースの入力は、SNNの非同期動作機構のおかげで、SNNをよりうまく活用することができる。
AOI-SNNの正則化と遮断という2つの新しい最適化手法が提案されている。
- 参考スコア(独自算出の注目度): 27.49173382510852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs), a variant of artificial neural networks
(ANNs) with the benefit of energy efficiency, have achieved the accuracy close
to its ANN counterparts, on benchmark datasets such as CIFAR10/100 and
ImageNet. However, comparing with frame-based input (e.g., images), event-based
inputs from e.g., Dynamic Vision Sensor (DVS) can make a better use of SNNs
thanks to the SNNs' asynchronous working mechanism. In this paper, we
strengthen the marriage between SNNs and event-based inputs with a proposal to
consider anytime optimal inference SNNs, or AOI-SNNs, which can terminate
anytime during the inference to achieve optimal inference result. Two novel
optimisation techniques are presented to achieve AOI-SNNs: a regularisation and
a cutoff. The regularisation enables the training and construction of SNNs with
optimised performance, and the cutoff technique optimises the inference of SNNs
on event-driven inputs. We conduct an extensive set of experiments on multiple
benchmark event-based datasets, including CIFAR10-DVS, N-Caltech101 and DVS128
Gesture. The experimental results demonstrate that our techniques are superior
to the state-of-the-art with respect to the accuracy and latency.
- Abstract(参考訳): エネルギー効率の恩恵を受ける人工知能ニューラルネットワーク(ANN)の亜種であるスパイキングニューラルネットワーク(SNN)は、CIFAR10/100やImageNetといったベンチマークデータセット上で、ANNのそれに近い精度を達成した。
しかし、フレームベースの入力(イメージなど)と比較すると、ダイナミックビジョンセンサー(DVS)のようなイベントベースの入力は、SNNの非同期動作機構のおかげで、SNNをよりうまく活用することができる。
本稿では,SNNとイベントベース入力の結婚を,任意の時間最適SNN(AOI-SNN)を考慮し,推論中にいつでも終了し,最適な推論結果を得るための提案によって強化する。
AOI-SNNの正則化と遮断という2つの新しい最適化手法が提案されている。
正規化により、最適化性能を持つSNNのトレーニングと構築が可能となり、イベント駆動入力に対するSNNの推論を最適化する。
我々は、CIFAR10-DVS、N-Caltech101、DVS128 Gestureなど、複数のベンチマークイベントベースのデータセットで広範な実験を行う。
実験の結果,本手法は精度とレイテンシにおいて最先端技術よりも優れていることがわかった。
関連論文リスト
- Reducing ANN-SNN Conversion Error through Residual Membrane Potential [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は、低消費電力のユニークな特性とニューロモルフィックチップ上の高速コンピューティングにより、広く学術的な注目を集めている。
本稿では,不均一な誤差を詳細に解析し,それを4つのカテゴリに分割する。
本研究では,残膜電位に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T04:44:31Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Optimized Potential Initialization for Low-latency Spiking Neural
Networks [21.688402090967497]
スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを実現したANN-to-SNN変換である。
本稿では、非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
論文 参考訳(メタデータ) (2022-02-03T07:15:43Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。