論文の概要: Convolutional Spiking Neural Networks for Spatio-Temporal Feature
Extraction
- arxiv url: http://arxiv.org/abs/2003.12346v2
- Date: Mon, 18 Jan 2021 00:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:46:24.626616
- Title: Convolutional Spiking Neural Networks for Spatio-Temporal Feature
Extraction
- Title(参考訳): 時空間特徴抽出のための畳み込みスパイクニューラルネットワーク
- Authors: Ali Samadzadeh, Fatemeh Sadat Tabatabaei Far, Ali Javadi, Ahmad
Nickabadi, Morteza Haghir Chehreghani
- Abstract要約: スパイキングニューラルネットワーク(SNN)は低消費電力および組み込みシステムで使用できる。
畳み込みニューラルネットワークやその他の種類のSNNの層における時間符号化はまだ研究されていない。
現実世界の問題に対処するための,新たな深層スパイクアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 3.9898522485253256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) can be used in low-power and embedded systems
(such as emerging neuromorphic chips) due to their event-based nature. Also,
they have the advantage of low computation cost in contrast to conventional
artificial neural networks (ANNs), while preserving ANN's properties. However,
temporal coding in layers of convolutional spiking neural networks and other
types of SNNs has yet to be studied. In this paper, we provide insight into
spatio-temporal feature extraction of convolutional SNNs in experiments
designed to exploit this property. The shallow convolutional SNN outperforms
state-of-the-art spatio-temporal feature extractor methods such as C3D,
ConvLstm, and similar networks. Furthermore, we present a new deep spiking
architecture to tackle real-world problems (in particular classification tasks)
which achieved superior performance compared to other SNN methods on NMNIST
(99.6%), DVS-CIFAR10 (69.2%) and DVS-Gesture (96.7%) and ANN methods on UCF-101
(42.1%) and HMDB-51 (21.5%) datasets. It is also worth noting that the training
process is implemented based on variation of spatio-temporal backpropagation
explained in the paper.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、イベントベースの性質のため、低消費電力および組み込みシステム(新しいニューロモルフィックチップなど)で使用できる。
また、従来のニューラルネットワーク(anns)とは対照的に、anの特性を維持しながら計算コストが低いという利点がある。
しかしながら、畳み込みスパイクニューラルネットワークやその他の種類のSNNの層における時間的符号化はまだ研究されていない。
本稿では,この特性を利用した実験において,畳み込みsnsの時空間的特徴抽出について考察する。
浅い畳み込みSNNは、C3DやConvLstmなどの最先端の時空間特徴抽出手法よりも優れている。
さらに,NMNIST (99.6%), DVS-CIFAR10 (69.2%), DVS-Gesture (96.7%), ANN の UCF-101 (42.1%) および HMDB-51 (21.5%) のデータセットに比べて優れた性能を示した実世界の問題(特に分類タスク)に取り組むための新しいディープスパイクアーキテクチャを提案する。
また,本論文で説明した時空間バックプロパゲーションの変化に基づいて,トレーニングプロセスが実施されていることも注目に値する。
関連論文リスト
- Spatial-Temporal Search for Spiking Neural Networks [32.937536365872745]
スパイキングニューラルネットワーク(SNN)は、次世代人工知能の潜在的な候補と考えられている。
空間次元と時間次元の両方でSNNを最適化するための微分可能なアプローチを提案する。
本手法は,96.43%,78.96%,70.21%の精度でCIFAR10/100とImageNetの分類性能を比較検討した。
論文 参考訳(メタデータ) (2024-10-24T09:32:51Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - PC-SNN: Supervised Learning with Local Hebbian Synaptic Plasticity based
on Predictive Coding in Spiking Neural Networks [1.6172800007896282]
本稿では,予測符号化理論に触発された新しい学習アルゴリズムを提案する。
教師あり学習を完全自律的に行うことができ、バックプロップとして成功することを示す。
この手法は,最先端の多層SNNと比較して,良好な性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T09:56:02Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Keys to Accurate Feature Extraction Using Residual Spiking Neural
Networks [1.101002667958165]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)の代替として興味深いものになった
本稿では,現代のスパイク建築の鍵となる構成要素について述べる。
我々は、成功しているResNetアーキテクチャのスパイクバージョンを設計し、異なるコンポーネントとトレーニング戦略をテストする。
論文 参考訳(メタデータ) (2021-11-10T21:29:19Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。