論文の概要: Adaptive Axonal Delays in feedforward spiking neural networks for
accurate spoken word recognition
- arxiv url: http://arxiv.org/abs/2302.08607v1
- Date: Thu, 16 Feb 2023 22:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:23:35.911135
- Title: Adaptive Axonal Delays in feedforward spiking neural networks for
accurate spoken word recognition
- Title(参考訳): 正確な単語認識のためのフィードフォワードスパイクニューラルネットワークの適応軸索遅延
- Authors: Pengfei Sun, Ehsan Eqlimi, Yansong Chua, Paul Devos, Dick Botteldooren
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、正確で効率的な自動音声認識システムを構築するための有望な研究手段である。
近年のオーディオ・ツー・スパイク符号化とトレーニングアルゴリズムの進歩により、SNNを実践的なタスクに適用することが可能になった。
本研究は,複雑な時間構造をもつタスクに対して,軸索遅延を訓練する可能性を示す。
- 参考スコア(独自算出の注目度): 4.018601183900039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNN) are a promising research avenue for building
accurate and efficient automatic speech recognition systems. Recent advances in
audio-to-spike encoding and training algorithms enable SNN to be applied in
practical tasks. Biologically-inspired SNN communicates using sparse
asynchronous events. Therefore, spike-timing is critical to SNN performance. In
this aspect, most works focus on training synaptic weights and few have
considered delays in event transmission, namely axonal delay. In this work, we
consider a learnable axonal delay capped at a maximum value, which can be
adapted according to the axonal delay distribution in each network layer. We
show that our proposed method achieves the best classification results reported
on the SHD dataset (92.45%) and NTIDIGITS dataset (95.09%). Our work
illustrates the potential of training axonal delays for tasks with complex
temporal structures.
- Abstract(参考訳): spiking neural networks (snn)は、正確で効率的な自動音声認識システムを構築するための有望な研究道である。
近年のオーディオ・ツー・スパイク符号化とトレーニングアルゴリズムの進歩により、SNNを実践的なタスクに適用することが可能になった。
生物学的にインスパイアされたSNNはスパース非同期イベントを使って通信する。
したがって、スパイクタイピングはSNNのパフォーマンスに不可欠である。
この面では、ほとんどの作業はシナプス重みのトレーニングに焦点を当てており、イベント伝達の遅延、すなわち軸索遅延を考慮するものはほとんどない。
本研究では,学習可能な軸索遅延を最大値に設定し,各ネットワーク層の軸索遅延分布に応じて適応可能な軸索遅延について検討する。
提案手法は,SHDデータセット (92.45%) と NTIDIGITS データセット (95.09%) で報告された最良の分類結果が得られることを示す。
本研究は,複雑な時間構造をもつタスクに対する軸索遅延の訓練の可能性を示す。
関連論文リスト
- TSkips: Efficiency Through Explicit Temporal Delay Connections in Spiking Neural Networks [8.13696328386179]
本稿では、時間的遅延を明示する前向きおよび後向きの接続を含むスパイキングニューラルネットワークを増強するTSkipsを提案する。
これらの接続は、長期的アーキテクチャをキャプチャし、長いシーケンスのスパイクフローを改善する。
4つのイベントベースデータセットにアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-11-22T18:58:18Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Co-learning synaptic delays, weights and adaptation in spiking neural
networks [0.0]
スパイキングニューラルネットワーク(SNN)は、固有の時間処理とスパイクベースの計算のため、人工知能ニューラルネットワーク(ANN)と区別する。
スパイクニューロンを用いたデータ処理は、他の2つの生物学的にインスピレーションを受けたニューロンの特徴と接続重みを協調学習することで向上できることを示す。
論文 参考訳(メタデータ) (2023-09-12T09:13:26Z) - Learning Delays in Spiking Neural Networks using Dilated Convolutions
with Learnable Spacings [1.534667887016089]
スパイキングニューラルネットワーク(SNN)は、電力効率の高い情報処理システムを構築する上で有望な研究方向である。
SNNでは、1つのスパイクが1つのニューロンから別のニューロンに移動するのに必要な時間を指す。
塑性遅延がSNNの表現性を大幅に向上させることが理論的に示されている。
本稿では,この問題をバックプロパゲーションを用いたディープフィードフォワードSNNで処理する離散時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-30T14:01:53Z) - Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。