論文の概要: SEENN: Towards Temporal Spiking Early-Exit Neural Networks
- arxiv url: http://arxiv.org/abs/2304.01230v1
- Date: Sun, 2 Apr 2023 15:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 17:02:34.712391
- Title: SEENN: Towards Temporal Spiking Early-Exit Neural Networks
- Title(参考訳): SEENN: 一時スパイク早期ニューラルネットワークを目指して
- Authors: Yuhang Li, Tamar Geller, Youngeun Kim, Priyadarshini Panda
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的にもっともらしい代替品として人気が高まっている。
本研究では,SNNにおける時間経過の微調整について検討する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
- 参考スコア(独自算出の注目度): 10.00429618941012
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Networks (SNNs) have recently become more popular as a
biologically plausible substitute for traditional Artificial Neural Networks
(ANNs). SNNs are cost-efficient and deployment-friendly because they process
input in both spatial and temporal manners using binary spikes. However, we
observe that the information capacity in SNNs is affected by the number of
timesteps, leading to an accuracy-efficiency tradeoff. In this work, we study a
fine-grained adjustment of the number of timesteps in SNNs. Specifically, we
treat the number of timesteps as a variable conditioned on different input
samples to reduce redundant timesteps for certain data. We call our method
Spiking Early-Exit Neural Networks (SEENNs). To determine the appropriate
number of timesteps, we propose SEENN-I which uses a confidence score
thresholding to filter out the uncertain predictions, and SEENN-II which
determines the number of timesteps by reinforcement learning. Moreover, we
demonstrate that SEENN is compatible with both the directly trained SNN and the
ANN-SNN conversion. By dynamically adjusting the number of timesteps, our SEENN
achieves a remarkable reduction in the average number of timesteps during
inference. For example, our SEENN-II ResNet-19 can achieve 96.1% accuracy with
an average of 1.08 timesteps on the CIFAR-10 test dataset.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的に妥当な代替品として人気が高まっている。
SNNは、二分スパイクを用いて空間的および時間的両方の方法で入力を処理するため、コスト効率が高く、デプロイに優しい。
しかし、SNNにおける情報容量は時間ステップの数に影響され、精度と効率のトレードオフが生じる。
本研究では,SNNにおける時間経過の微調整について検討する。
具体的には、特定のデータに対する冗長な時間ステップを減らすために、異なる入力サンプルに条件付き変数として時間ステップ数を扱います。
本手法をSEENN(Spyking Early-Exit Neural Networks)と呼ぶ。
適切な時間ステップ数を決定するために,信頼度スコア閾値を用いて不確定な予測をフィルタリングするseen-i,強化学習による時間ステップ数を決定するseen-iiを提案する。
さらに、SEENNは直接訓練されたSNNとANN-SNN変換の両方と互換性があることを実証する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
例えば、私たちのSEENN-II ResNet-19は、CIFAR-10テストデータセット上で平均1.08のタイムステップで96.1%の精度を達成できます。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Optimal ANN-SNN Conversion with Group Neurons [39.14228133571838]
スパイキングニューラルネットワーク(SNN)は、有望な第3世代のニューラルネットワークとして登場した。
効果的な学習アルゴリズムの欠如は、SNNにとって依然として課題である。
我々はグループニューロン(GN)と呼ばれる新しいタイプのニューロンを紹介する。
論文 参考訳(メタデータ) (2024-02-29T11:41:12Z) - Bridging the Gap between ANNs and SNNs by Calibrating Offset Spikes [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は低消費電力と時間情報処理の特徴的な特徴から注目されている。
ANN-SNN変換は、SNNに適用するための最も一般的な訓練方法であり、変換されたSNNが大規模データセット上でANNに匹敵するパフォーマンスを達成することを確実にする。
本稿では、異なる変換誤差を評価してこれらの誤りを除去する代わりに、実際のSNN発射速度と所望のSNN発射速度のずれ度を測定するためにオフセットスパイクを定義する。
論文 参考訳(メタデータ) (2023-02-21T14:10:56Z) - A noise based novel strategy for faster SNN training [0.0]
スパイキングニューラルネットワーク(SNN)は、消費電力の低さと強力なバイオプロファイザビリティによって注目を集めている。
人工知能ニューラルネットワーク(ANN)-SNN変換とスパイクベースのバックプロパゲーション(BP)の2つの主要な手法には、それぞれ長所と短所がある。
本稿では,2つの手法の利点を組み合わせた新しいSNNトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-10T09:59:04Z) - Low Latency Conversion of Artificial Neural Network Models to
Rate-encoded Spiking Neural Networks [11.300257721586432]
スパイキングニューラルネットワーク(SNN)は、リソース制約のあるアプリケーションに適している。
典型的なレートエンコードされたSNNでは、グローバルに固定された時間ウィンドウ内の一連のバイナリスパイクを使用してニューロンを発射する。
本研究の目的は、ANNを等価SNNに変換する際の精度を維持しつつ、これを削減することである。
論文 参考訳(メタデータ) (2022-10-27T08:13:20Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。