論文の概要: Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification
- arxiv url: http://arxiv.org/abs/2211.04297v1
- Date: Thu, 22 Sep 2022 16:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 17:41:14.776327
- Title: Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification
- Title(参考訳): 時空間分割のための不均一リカレントスパイクニューラルネットワーク
- Authors: Biswadeep Chakraborty and Saibal Mukhopadhyay
- Abstract要約: Spi Neural Networksは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
本稿では,ビデオ認識タスクのための教師なし学習を用いたヘテロジニアススパイキングニューラルネットワーク(HRSNN)を提案する。
本研究では,時間的バックプロパゲーション訓練による教師付きSNNに類似した性能を実現することができるが,少ない計算量で実現可能であることを示す。
- 参考スコア(独自算出の注目度): 13.521272923545409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks are often touted as brain-inspired learning models
for the third wave of Artificial Intelligence. Although recent SNNs trained
with supervised backpropagation show classification accuracy comparable to deep
networks, the performance of unsupervised learning-based SNNs remains much
lower. This paper presents a heterogeneous recurrent spiking neural network
(HRSNN) with unsupervised learning for spatio-temporal classification of video
activity recognition tasks on RGB (KTH, UCF11, UCF101) and event-based datasets
(DVS128 Gesture). The key novelty of the HRSNN is that the recurrent layer in
HRSNN consists of heterogeneous neurons with varying firing/relaxation
dynamics, and they are trained via heterogeneous
spike-time-dependent-plasticity (STDP) with varying learning dynamics for each
synapse. We show that this novel combination of heterogeneity in architecture
and learning method outperforms current homogeneous spiking neural networks. We
further show that HRSNN can achieve similar performance to state-of-the-art
backpropagation trained supervised SNN, but with less computation (fewer
neurons and sparse connection) and less training data.
- Abstract(参考訳): スパイキングニューラルネットワークは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
教師付きバックプロパゲーションで訓練された最近のSNNは、ディープネットワークに匹敵する分類精度を示しているが、教師なし学習ベースのSNNの性能は依然としてかなり低い。
本稿では,RGB (KTH, UCF11, UCF101) とイベントベースデータセット (DVS128 Gesture) 上での映像活動認識タスクの時空間分類のための教師なし学習を用いたヘテロジニアスリカレントスパイクニューラルネットワーク (HRSNN) を提案する。
HRSNNの重要な特徴は、HRSNNの繰り返し層が、発火/発火ダイナミクスの異なる異種ニューロンで構成され、各シナプスの学習ダイナミクスの異なる異種スパイク時間依存塑性(STDP)によって訓練されていることである。
アーキテクチャにおける不均一性と学習方法の新しい組み合わせは、現在の均質なスパイクニューラルネットワークよりも優れていることを示す。
さらに、HRSNNは、最先端のバックプロパゲーション訓練を受けた教師付きSNNと同等の性能を達成できるが、少ない計算(少ないニューロンと疎結合)と少ないトレーニングデータで実現できることを示す。
関連論文リスト
- Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - An STDP-Based Supervised Learning Algorithm for Spiking Neural Networks [20.309112286222238]
Spiking Neural Networks (SNN)は、より生物学的に可能な脳モデルを提供する。
本稿では,Leaky Integrate-and-fire ニューロンからなる階層型 SNN に対して,Spike-Timing Dependent Plasticity (STDP) に基づく教師付き学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-07T13:40:09Z) - Combining Spiking Neural Network and Artificial Neural Network for
Enhanced Image Classification [1.8411688477000185]
生物学的脳シナプスによく似たSNN(spiking neural Network)は、低消費電力のために注目を集めている。
我々は、関係する性能を改善する汎用ハイブリッドニューラルネットワーク(hnn)を構築した。
論文 参考訳(メタデータ) (2021-02-21T12:03:16Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。