論文の概要: Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition
- arxiv url: http://arxiv.org/abs/2302.01194v1
- Date: Thu, 2 Feb 2023 16:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 13:15:04.299372
- Title: Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition
- Title(参考訳): 高能率音声認識のための複雑な動的ニューロンによるスパイキングトランスネットワークの改善
- Authors: Minglun Han, Qingyu Wang, Tielin Zhang, Yi Wang, Duzhen Zhang, Bo Xu
- Abstract要約: リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、音声認識(ASR)タスクで一般的に用いられている。
ここでは、スパイキングトランスから生成された逐次パターンを後処理する4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
- 参考スコア(独自算出の注目度): 8.998797644039064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The spiking neural network (SNN) using leaky-integrated-and-fire (LIF)
neurons has been commonly used in automatic speech recognition (ASR) tasks.
However, the LIF neuron is still relatively simple compared to that in the
biological brain. Further research on more types of neurons with different
scales of neuronal dynamics is necessary. Here we introduce four types of
neuronal dynamics to post-process the sequential patterns generated from the
spiking transformer to get the complex dynamic neuron improved spiking
transformer neural network (DyTr-SNN). We found that the DyTr-SNN could handle
the non-toy automatic speech recognition task well, representing a lower
phoneme error rate, lower computational cost, and higher robustness. These
results indicate that the further cooperation of SNNs and neural dynamics at
the neuron and network scales might have much in store for the future,
especially on the ASR tasks.
- Abstract(参考訳): リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、自動音声認識(ASR)タスクで一般的に用いられている。
しかし、LIFニューロンはいまだに生物学的脳と比べて比較的単純である。
ニューロンの動態の異なる種類のニューロンについて、さらなる研究が必要である。
本稿では、スパイキング変換器から生成された逐次パターンを後処理し、複雑な動的ニューロンの改善されたスパイキング変換器ニューラルネットワーク(DyTr-SNN)を得るための4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
これらの結果は、特にASRタスクにおいて、ニューロンとネットワークスケールにおけるSNNとニューラルダイナミクスのさらなる協調が、将来大きな意味を持つことを示唆している。
関連論文リスト
- Gated Parametric Neuron for Spike-based Audio Recognition [26.124844943674407]
スパイキングニューラルネットワーク(SNN)は、生物学的に可塑性ニューロンを持つヒト脳内の実際のニューラルネットワークをシミュレートすることを目的としている。
本稿では,ゲーティング機構を用いて時間的情報を効率的に処理するための漏れパラメトリックニューロン(GPN)を提案する。
論文 参考訳(メタデータ) (2024-12-02T03:46:26Z) - Random-coupled Neural Network [17.53731608985241]
パルス結合ニューラルネットワーク(PCNN)は、コンピュータビジョンとニューラルネットワークの分野における人間の脳の特徴を模倣するためのよく応用されたモデルである。
本研究では,ランダム結合ニューラルネットワーク(RCNN)を提案する。
ランダム不活性化プロセスを通じて、PCNNのニューロモルフィックコンピューティングの困難を克服する。
論文 参考訳(メタデータ) (2024-03-26T09:13:06Z) - Deep Pulse-Coupled Neural Networks [31.65350290424234]
ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
論文 参考訳(メタデータ) (2023-12-24T08:26:00Z) - Co-learning synaptic delays, weights and adaptation in spiking neural
networks [0.0]
スパイキングニューラルネットワーク(SNN)は、固有の時間処理とスパイクベースの計算のため、人工知能ニューラルネットワーク(ANN)と区別する。
スパイクニューロンを用いたデータ処理は、他の2つの生物学的にインスピレーションを受けたニューロンの特徴と接続重みを協調学習することで向上できることを示す。
論文 参考訳(メタデータ) (2023-09-12T09:13:26Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。