論文の概要: Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block
- arxiv url: http://arxiv.org/abs/2203.10006v1
- Date: Fri, 18 Mar 2022 15:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 14:08:41.825005
- Title: Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block
- Title(参考訳): 時空間圧縮とシナプス畳み込みブロックを用いた超低レイテンシスパイクニューラルネットワーク
- Authors: Changqing Xu, Yi Liu, Yintang Yang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
- 参考スコア(独自算出の注目度): 4.081968050250324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs), as one of the brain-inspired models, has
spatio-temporal information processing capability, low power feature, and high
biological plausibility. The effective spatio-temporal feature makes it
suitable for event streams classification. However, neuromorphic datasets, such
as N-MNIST, CIFAR10-DVS, DVS128-gesture, need to aggregate individual events
into frames with a new higher temporal resolution for event stream
classification, which causes high training and inference latency. In this work,
we proposed a spatio-temporal compression method to aggregate individual events
into a few time steps of synaptic current to reduce the training and inference
latency. To keep the accuracy of SNNs under high compression ratios, we also
proposed a synaptic convolutional block to balance the dramatic change between
adjacent time steps. And multi-threshold Leaky Integrate-and-Fire (LIF) with
learnable membrane time constant is introduced to increase its information
processing capability. We evaluate the proposed method for event streams
classification tasks on neuromorphic N-MNIST, CIFAR10-DVS, DVS128 gesture
datasets. The experiment results show that our proposed method outperforms the
state-of-the-art accuracy on nearly all datasets, using fewer time steps.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたモデルの一つで、時空間情報処理能力、低消費電力機能、高生物学的可視性を備えている。
効果的な時空間的特徴は、イベントストリームの分類に適している。
しかし、N-MNIST、CIFAR10-DVS、DVS128-gestureなどのニューロモルフィックデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類のための新しい高時間分解能で、高いトレーニングと推論遅延を引き起こす。
本研究では,個々のイベントを数回のシナプス電流の時間ステップに集約し,トレーニングと推論の待ち時間を短縮する時空間圧縮法を提案する。
また,SNNの精度を高い圧縮比で維持するために,隣接する時間ステップ間の劇的変化のバランスをとるためのシナプス畳み込みブロックを提案する。
また,学習可能な膜時間定数を持つマルチスレッドLeaky Integrate-and-Fire(LIF)を導入し,その情報処理能力を向上させる。
ニューロモルフィックN-MNIST, CIFAR10-DVS, DVS128ジェスチャデータセットを用いたイベントストリーム分類タスクの評価を行った。
実験の結果,提案手法は,ほぼすべてのデータセットにおいて,少ない時間ステップで最先端の精度を上回っていることがわかった。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Signal-SGN: A Spiking Graph Convolutional Network for Skeletal Action Recognition via Learning Temporal-Frequency Dynamics [2.9578022754506605]
骨格に基づく行動認識では、グラフ畳み込みネットワーク(GCN)はその複雑さと高エネルギー消費のために制限に直面している。
本稿では、骨格配列の時間次元をスパイキング時間ステップとして活用するSignal-SGN(Spiking Graph Convolutional Network)を提案する。
実験により,提案モデルが既存のSNN法を精度で上回るだけでなく,学習時の計算記憶コストも低減できることがわかった。
論文 参考訳(メタデータ) (2024-08-03T07:47:16Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Deep inference of latent dynamics with spatio-temporal super-resolution
using selective backpropagation through time [15.648009434801885]
現代の神経インタフェースは、脳回路内の100万のニューロンの活動をアクセスすることができる。
帯域幅制限はしばしば、より大きな空間サンプリング(より多くのチャンネルやピクセル)と時間サンプリングの頻度の間のトレードオフを生み出す。
ここでは、ニューロン間の関係を利用して、ニューロン時系列における超解像を得ることが可能であることを実証する。
論文 参考訳(メタデータ) (2021-10-29T20:18:29Z) - Backpropagation with Biologically Plausible Spatio-Temporal Adjustment
For Training Deep Spiking Neural Networks [5.484391472233163]
ディープラーニングの成功は、バックプロパゲーションとは分離できない。
本研究では, 膜電位とスパイクの関係を再考する, 生体可塑性空間調整法を提案する。
次に,生物学的に妥当な時間的調整を提案し,時間的次元のスパイクを横切る誤差を伝搬させる。
論文 参考訳(メタデータ) (2021-10-17T15:55:51Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。