論文の概要: Expressivity of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2308.08218v1
- Date: Wed, 16 Aug 2023 08:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 14:13:06.745412
- Title: Expressivity of Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの表現性
- Authors: Manjot Singh, Adalbert Fono and Gitta Kutyniok
- Abstract要約: 本稿では,ニューロンの発射時間に情報を符号化したスパイクニューラルネットワークの表現力について検討する。
ニューロモルフィックハードウェア上でのスパイクニューラルネットワークの実装は、将来のエネルギー効率の高いAIアプリケーションにとって有望な選択である。
- 参考スコア(独自算出の注目度): 17.062437567844874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article studies the expressive power of spiking neural networks where
information is encoded in the firing time of neurons. The implementation of
spiking neural networks on neuromorphic hardware presents a promising choice
for future energy-efficient AI applications. However, there exist very few
results that compare the computational power of spiking neurons to arbitrary
threshold circuits and sigmoidal neurons. Additionally, it has also been shown
that a network of spiking neurons is capable of approximating any continuous
function. By using the Spike Response Model as a mathematical model of a
spiking neuron and assuming a linear response function, we prove that the
mapping generated by a network of spiking neurons is continuous piecewise
linear. We also show that a spiking neural network can emulate the output of
any multi-layer (ReLU) neural network. Furthermore, we show that the maximum
number of linear regions generated by a spiking neuron scales exponentially
with respect to the input dimension, a characteristic that distinguishes it
significantly from an artificial (ReLU) neuron. Our results further extend the
understanding of the approximation properties of spiking neural networks and
open up new avenues where spiking neural networks can be deployed instead of
artificial neural networks without any performance loss.
- Abstract(参考訳): 本稿では,ニューロンの発火時間に情報がエンコードされるスパイキングニューラルネットワークの表現力について検討する。
ニューロモルフィックハードウェア上でのスパイクニューラルネットワークの実装は、将来のエネルギー効率の高いAIアプリケーションにとって有望な選択である。
しかし、スパイキングニューロンの計算能力と任意の閾値回路とsgmoidalニューロンを比較した結果は非常に少ない。
さらに、スパイキングニューロンのネットワークが連続的な機能を近似することができることも示されている。
スパイク応答モデルをスパイクニューロンの数学的モデルとし、線形応答関数を仮定することにより、スパイクニューロンのネットワークによって生成された写像が連続的に線形であることを証明する。
また、スパイクニューラルネットワークは、任意の多層ニューラルネットワーク(ReLU)の出力をエミュレートできることを示す。
さらに、スパイクニューロンが生成するリニア領域の最大数は、入力次元に対して指数関数的にスケールすることを示し、これは人工ニューロン(ReLU)と大きく区別する特徴である。
この結果により, スパイクニューラルネットワークの近似特性の理解がさらに深まり, スパイクニューラルネットワークを, 性能損失のない人工ニューラルネットワークの代わりに展開する新たな道が開かれた。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Identifying Interpretable Visual Features in Artificial and Biological
Neural Systems [3.604033202771937]
ニューラルネットワークの単一ニューロンはしばしば、個々の直感的に意味のある特徴を表すものとして解釈される。
多くのニューロンは$textitmixed selectivity$、すなわち複数の無関係な特徴を示す。
本稿では、視覚的解釈可能性の定量化と、ネットワークアクティベーション空間における意味のある方向を見つけるためのアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-17T17:41:28Z) - Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition [8.998797644039064]
リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、音声認識(ASR)タスクで一般的に用いられている。
ここでは、スパイキングトランスから生成された逐次パターンを後処理する4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
論文 参考訳(メタデータ) (2023-02-02T16:20:27Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。