論文の概要: Low-activity supervised convolutional spiking neural networks applied to
speech commands recognition
- arxiv url: http://arxiv.org/abs/2011.06846v1
- Date: Fri, 13 Nov 2020 10:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:45:15.891652
- Title: Low-activity supervised convolutional spiking neural networks applied to
speech commands recognition
- Title(参考訳): 音声コマンド認識に応用した低能率教師付き畳み込みニューラルネットワーク
- Authors: Thomas Pellegrini, Romain Zimmer, Timoth\'ee Masquelier
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、教師付き方法で効率的に訓練することができる。
本稿では,拡張畳み込みスパイク層からなるモデルが,標準ディープニューラルネットワーク(DNN)に非常に近い誤差率に達することを示す。
また、LIFモデルが非リーキーモデルよりも優れており、ニューロン膜電位の漏洩をモデル化することが有用であることを示す。
- 参考スコア(独自算出の注目度): 6.6389732792316005
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep Neural Networks (DNNs) are the current state-of-the-art models in many
speech related tasks. There is a growing interest, though, for more
biologically realistic, hardware friendly and energy efficient models, named
Spiking Neural Networks (SNNs). Recently, it has been shown that SNNs can be
trained efficiently, in a supervised manner, using backpropagation with a
surrogate gradient trick. In this work, we report speech command (SC)
recognition experiments using supervised SNNs. We explored the
Leaky-Integrate-Fire (LIF) neuron model for this task, and show that a model
comprised of stacked dilated convolution spiking layers can reach an error rate
very close to standard DNNs on the Google SC v1 dataset: 5.5%, while keeping a
very sparse spiking activity, below 5%, thank to a new regularization term. We
also show that modeling the leakage of the neuron membrane potential is useful,
since the LIF model outperformed its non-leaky model counterpart significantly.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は多くの音声関連タスクにおいて最先端のモデルである。
しかし、より生物学的に現実的でハードウェアフレンドリーでエネルギー効率の良いモデルであるspyking neural networks(snns)への関心が高まっている。
近年,代用勾配法を用いて,SNNのバックプロパゲーションを指導的に効率的に訓練できることが示されている。
本研究では,教師付きSNNを用いた音声認識実験について報告する。
我々は,この課題に対するリーク積分火炎(lif)ニューロンモデルについて検討し,google sc v1データセットの標準dnnに非常に近い誤差率を,拡張畳み込みスパイク層からなるモデルが到達できることを示した。
また, lifモデルが非リーキーモデルを大きく上回るため, ニューロン膜電位の漏洩のモデル化が有用であることを示した。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Deep Learning in Spiking Phasor Neural Networks [0.6767885381740952]
スパイキングニューラルネットワーク(SNN)は、低レイテンシで低消費電力のニューロモルフィックハードウェアで使用するために、ディープラーニングコミュニティの注目を集めている。
本稿では,Spking Phasor Neural Networks(SPNN)を紹介する。
SPNNは複雑に評価されたディープニューラルネットワーク(DNN)に基づいており、スパイク時間による位相を表す。
論文 参考訳(メタデータ) (2022-04-01T15:06:15Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Spiking Neural Networks for Visual Place Recognition via Weighted
Neuronal Assignments [24.754429120321365]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率と低レイテンシを含む、魅力的な潜在的な利点を提供する。
高性能SNNにとって有望な領域の1つは、テンプレートマッチングと画像認識である。
本研究では,視覚的位置認識(VPR)タスクのための最初の高性能SNNを紹介する。
論文 参考訳(メタデータ) (2021-09-14T05:40:40Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。