論文の概要: T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding
- arxiv url: http://arxiv.org/abs/2003.11741v1
- Date: Thu, 26 Mar 2020 04:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 20:57:18.702781
- Title: T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding
- Title(参考訳): t2fsnn:time-to-first-spikeコーディングによるディープスパイキングニューラルネットワーク
- Authors: Seongsik Park, Seijoon Kim, Byunggook Na, Sungroh Yoon
- Abstract要約: 本稿では,カーネルベースの動的しきい値とデンドライトを用いて,深層SNNにタイム・ツー・ファースト・スパイク・コーディングを組み込むことによって,その欠点を克服する手法を提案する。
提案手法は,バースト符号化法と比較して,推定遅延とスパイク回数を22%,1%以下に削減できる。
- 参考スコア(独自算出の注目度): 26.654533157221973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have gained considerable interest due to their
energy-efficient characteristics, yet lack of a scalable training algorithm has
restricted their applicability in practical machine learning problems. The deep
neural network-to-SNN conversion approach has been widely studied to broaden
the applicability of SNNs. Most previous studies, however, have not fully
utilized spatio-temporal aspects of SNNs, which has led to inefficiency in
terms of number of spikes and inference latency. In this paper, we present
T2FSNN, which introduces the concept of time-to-first-spike coding into deep
SNNs using the kernel-based dynamic threshold and dendrite to overcome the
aforementioned drawback. In addition, we propose gradient-based optimization
and early firing methods to further increase the efficiency of the T2FSNN.
According to our results, the proposed methods can reduce inference latency and
number of spikes to 22% and less than 1%, compared to those of burst coding,
which is the state-of-the-art result on the CIFAR-100.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率特性からかなりの関心を集めているが、スケーラブルなトレーニングアルゴリズムの欠如は、実践的な機械学習問題における適用性を制限している。
ディープニューラルネットワーク-SNN変換アプローチは、SNNの適用性を広げるために広く研究されている。
しかし、これまでのほとんどの研究はsnsの時空間的側面を十分に活用しておらず、スパイク数や推論遅延の点で非効率化につながった。
本稿では,カーネルベースの動的しきい値とデンドライトを用いた深部SNNへのタイム・ツー・ファースト・スパイク符号化の概念を導入し,その欠点を克服するT2FSNNを提案する。
さらに,T2FSNNの効率を高めるため,勾配に基づく最適化と早期点火手法を提案する。
その結果,提案手法は,CIFAR-100の最先端技術であるバースト符号化と比較して,推定遅延とスパイク回数を22%,1%以下に削減できることがわかった。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and
Cutoff [33.91830001268308]
スパイキングニューラルネットワーク(SNN)は、計算効率を有望に改善する。
現在のSNNトレーニング手法は、主に固定時間ステップアプローチを採用している。
本稿では,効率的な推論を実現するために,推論中にいつでもSNNを終了できるSNNの遮断を検討することを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - One Timestep is All You Need: Training Spiking Neural Networks with
Ultra Low Latency [8.590196535871343]
スパイキングニューラルネットワーク(SNN)は、一般的に使用されるディープニューラルネットワーク(DNN)のエネルギー効率の良い代替品である
高推論レイテンシは、ディープSNNのエッジデプロイメントに重大な障害となる。
時間軸の単発推論を行うために,SNNの反復初期化・再訓練法を提案する。
論文 参考訳(メタデータ) (2021-10-01T22:54:59Z) - Training Energy-Efficient Deep Spiking Neural Networks with
Time-to-First-Spike Coding [29.131030799324844]
スパイキングニューラルネットワーク(SNN)は人間の脳の動作を模倣する。
ディープラーニングでは、ディープニューラルネットワーク(DNN)が深刻な問題になっている。
本稿では,TTFS符号化を用いたエネルギー効率の高い深部SNNの学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T16:02:27Z) - Going Deeper With Directly-Trained Larger Spiking Neural Networks [20.40894876501739]
スパイキングニューラルネットワーク(SNN)は、バイオユースブルな情報とイベント駆動信号処理のためのコーディングを約束している。
しかし、SNNのユニークな動作モードにより、従来のネットワークよりもトレーニングが困難になる。
CIF依存型バッチ正規化法(tpladBN)を提案する。
論文 参考訳(メタデータ) (2020-10-29T07:15:52Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。