論文の概要: Hardware-Friendly Synaptic Orders and Timescales in Liquid State
Machines for Speech Classification
- arxiv url: http://arxiv.org/abs/2104.14264v1
- Date: Thu, 29 Apr 2021 11:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 02:19:49.217319
- Title: Hardware-Friendly Synaptic Orders and Timescales in Liquid State
Machines for Speech Classification
- Title(参考訳): 音声分類のための液体機械のハードウェアフレンドリーなシナプス順序と時間スケール
- Authors: Vivek Saraswat, Ajinkya Gorad, Anand Naik, Aakash Patil, Udayan
Ganguly
- Abstract要約: Liquid State Machinesは、ランダムな貯水池接続を備えた脳にインスパイアされたスパイクニューラルネットワーク(SNN)である。
差分(単一時間ステップの高出力)、0位(有限パルス幅の矩形)、第1位(指数降下)、第2位(指数昇降)といったシナプス的順序の役割を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Liquid State Machines are brain inspired spiking neural networks (SNNs) with
random reservoir connectivity and bio-mimetic neuronal and synaptic models.
Reservoir computing networks are proposed as an alternative to deep neural
networks to solve temporal classification problems. Previous studies suggest
2nd order (double exponential) synaptic waveform to be crucial for achieving
high accuracy for TI-46 spoken digits recognition. The proposal of long-time
range (ms) bio-mimetic synaptic waveforms is a challenge to compact and power
efficient neuromorphic hardware. In this work, we analyze the role of synaptic
orders namely: {\delta} (high output for single time step), 0th (rectangular
with a finite pulse width), 1st (exponential fall) and 2nd order (exponential
rise and fall) and synaptic timescales on the reservoir output response and on
the TI-46 spoken digits classification accuracy under a more comprehensive
parameter sweep. We find the optimal operating point to be correlated to an
optimal range of spiking activity in the reservoir. Further, the proposed 0th
order synapses perform at par with the biologically plausible 2nd order
synapses. This is substantial relaxation for circuit designers as synapses are
the most abundant components in an in-memory implementation for SNNs. The
circuit benefits for both analog and mixed-signal realizations of 0th order
synapse are highlighted demonstrating 2-3 orders of savings in area and power
consumptions by eliminating Op-Amps and Digital to Analog Converter circuits.
This has major implications on a complete neural network implementation with
focus on peripheral limitations and algorithmic simplifications to overcome
them.
- Abstract(参考訳): 液体状態機械は脳に触発されたスパイキングニューラルネットワーク(snn)であり、ランダムなリザーバ接続とバイオミメティックニューロンおよびシナプスモデルを持つ。
時間的分類問題を解決するために,深層ニューラルネットワークに代わる貯留層コンピューティングネットワークを提案する。
従来の研究では、TI-46音声認識において2次(二重指数指数)シナプス波形は高い精度を達成するために重要であることが示唆された。
long-time range (ms) バイオミメティックシナプス波形の提案は、コンパクトで効率的なニューロモルフィックハードウェアへの挑戦である。
本研究では, 単時間ステップの高出力, 0位(有限パルス幅の矩形), 1位(指数降下), 2位(指数降下), 2位(指数降下)とシナプス時間スケールが, 貯水池出力応答およびTI-46音声桁分類精度に与える影響を, より包括的パラメータスイープの下で解析する。
最適操作点と貯水池内のスパイキング活性の最適範囲との関連性を見出した。
さらに、提案する0次シナプスは、生物学的に妥当な2次シナプスと同等の性能を発揮する。
これは回路設計者にとって大きな緩和であり、シナプスはsnsのインメモリ実装において最も豊富なコンポーネントである。
第0次シナプスのアナログおよび混合信号実現のための回路の利点は、Op-AmpsとDigital to Analog Converter回路を除去することにより、面積と消費電力の2~3桁の節約効果を示す。
これは、周辺的制限とそれらを克服するアルゴリズム的単純化に焦点を当てた、完全なニューラルネットワーク実装に大きな影響を与える。
関連論文リスト
- Integrating programmable plasticity in experiment descriptions for analog neuromorphic hardware [0.9217021281095907]
BrainScaleS-2のニューロモルフィックアーキテクチャは「ハイブリッド」可塑性をサポートするように設計されている。
シナプス間相関測定などの数値シミュレーションで高価な観測機器はシナプス回路に直接実装される。
我々は高レベルな実験記述言語でスパイキングニューラルネットワーク実験と塑性規則を記述するための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-04T08:46:06Z) - NeoHebbian Synapses to Accelerate Online Training of Neuromorphic Hardware [0.03377254151446239]
ReRAMデバイスを用いた新しいネオヘビアン人工シナプスが提案され、実験的に検証されている。
様々なデバイスやシステムレベルの非理想を考慮に入れたシステムレベルのシミュレーションは、これらのシナプスがニューロモルフィックハードウェアにおける高度な学習規則の高速でコンパクトでエネルギー効率の高い実装に堅牢なソリューションを提供することを確認した。
論文 参考訳(メタデータ) (2024-11-27T12:06:15Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Spatiotemporal Spike-Pattern Selectivity in Single Mixed-Signal Neurons
with Balanced Synapses [0.27998963147546135]
混合信号ニューロモルフィックプロセッサは推論と学習に使用できる。
ネットワーク層の実装に不均一なシナプス回路をいかに利用できるかを示す。
論文 参考訳(メタデータ) (2021-06-10T12:04:03Z) - Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware [0.0]
BrainScaleS-2 ASICは混合信号ニューロンとシナプス回路から構成される。
システムは、人工ニューラルネットワークのベクトル行列乗算と累積モードでも動作する。
論文 参考訳(メタデータ) (2020-06-23T17:25:06Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。