論文の概要: A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with
Few Neurons
- arxiv url: http://arxiv.org/abs/2301.09962v1
- Date: Tue, 24 Jan 2023 12:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:44:06.926720
- Title: A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with
Few Neurons
- Title(参考訳): ニューロモルフィックキーワードスポッティングにおける時間エンコーダの比較
- Authors: Mattias Nilsson, Ton Juny Pina, Lyes Khacef, Foteini Liwicki,
Elisabetta Chicca, and Fredrik Sandin
- Abstract要約: SNNにおける時間的エンコーディングと特徴抽出のための2つの神経計算要素について検討した。
リソース効率の良いキーワードスポッティングアプリケーションは、これらのエンコーダを使用することで恩恵を受けることができるが、時間定数と重み付けを学習する手法をさらに研究する必要がある。
- 参考スコア(独自算出の注目度): 0.11726720776908518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the expansion of AI-powered virtual assistants, there is a need for
low-power keyword spotting systems providing a "wake-up" mechanism for
subsequent computationally expensive speech recognition. One promising approach
is the use of neuromorphic sensors and spiking neural networks (SNNs)
implemented in neuromorphic processors for sparse event-driven sensing.
However, this requires resource-efficient SNN mechanisms for temporal encoding,
which need to consider that these systems process information in a streaming
manner, with physical time being an intrinsic property of their operation. In
this work, two candidate neurocomputational elements for temporal encoding and
feature extraction in SNNs described in recent literature - the spiking
time-difference encoder (TDE) and disynaptic excitatory-inhibitory (E-I)
elements - are comparatively investigated in a keyword-spotting task on
formants computed from spoken digits in the TIDIGITS dataset. While both
encoders improve performance over direct classification of the formant features
in the training data, enabling a complete binary classification with a logistic
regression model, they show no clear improvements on the test set.
Resource-efficient keyword spotting applications may benefit from the use of
these encoders, but further work on methods for learning the time constants and
weights is required to investigate their full potential.
- Abstract(参考訳): AIを利用した仮想アシスタントの拡張により、後続の計算コストの高い音声認識に"覚醒"メカニズムを提供する低消費電力キーワードスポッティングシステムが必要である。
1つの有望なアプローチは、スパースイベント駆動センシングのためにニューロモルフィックプロセッサに実装されたニューロモルフィックセンサーとスパイキングニューラルネットワーク(SNN)を使用することである。
しかし、これは時間的エンコーディングのためのリソース効率のよいSNNメカニズムを必要としており、これらのシステムは、物理時間がその操作の本質的な特性として、ストリーミング的に情報を処理していることを考慮する必要がある。
本研究では,TIDIGITSデータセットの音声桁から計算したフォルマントのキーワードスポッティングタスクにおいて,時間差分エンコーダ (TDE) と非シナプス興奮抑制 (E-I) の2要素について,時間差分エンコーダ (TDE) と特徴抽出の2要素について比較検討した。
両エンコーダはトレーニングデータ中のフォルマント特徴の直接分類よりも性能が向上し、ロジスティック回帰モデルによる完全なバイナリ分類が可能となったが、テストセットに明確な改善はない。
リソース効率のよいキーワードスポッティングアプリケーションは、これらのエンコーダを使用することで恩恵を受けることができるが、時間定数と重みを学習する手法をさらに研究する必要がある。
関連論文リスト
- Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Surrogate Gradient Spiking Neural Networks as Encoders for Large
Vocabulary Continuous Speech Recognition [91.39701446828144]
スパイクニューラルネットワークは, 代理勾配法を用いて, 通常のリカレントニューラルネットワークのように訓練可能であることを示す。
彼らは音声コマンド認識タスクについて有望な結果を示した。
繰り返し発生する非スパイキングとは対照的に、ゲートを使わずに爆発する勾配問題に対して堅牢性を示す。
論文 参考訳(メタデータ) (2022-12-01T12:36:26Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Brain inspired neuronal silencing mechanism to enable reliable sequence
identification [0.0]
本稿では,フィードバックループのない高速フィードフォワードシーケンス識別ネットワーク(ID-net)の実験的なメカニズムを提案する。
このメカニズムは、最近のスパイク活動の後、一時的にニューロンを沈黙させる。
提示されたメカニズムは、高度なANNアルゴリズムのための新しい水平線を開放する。
論文 参考訳(メタデータ) (2022-03-24T12:15:02Z) - A Deep 2-Dimensional Dynamical Spiking Neuronal Network for Temporal
Encoding trained with STDP [10.982390333064536]
哺乳動物の大脳皮質を模倣する動的・カオス的な活動を持つ大きな層状SNNは、時間的データから情報を符号化することができることを示す。
ネットワーク重みに固有のランダム性は、STDPによる自己組織化後に入力される時間データを符号化するグループを形成することができると主張している。
情報伝達の指標として,ネットワークエントロピーの観点からネットワークを解析する。
論文 参考訳(メタデータ) (2020-09-01T17:12:18Z) - Multivariate Time Series Classification Using Spiking Neural Networks [7.273181759304122]
スパイクニューラルネットワークは低消費電力を可能にするため注目されている。
本稿では,時系列をスパース時空間スパイクパターンに変換する符号化方式を提案する。
空間時間パターンを分類する学習アルゴリズムも提案する。
論文 参考訳(メタデータ) (2020-07-07T15:24:01Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。