論文の概要: On the computational power and complexity of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2001.08439v1
- Date: Thu, 23 Jan 2020 10:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 13:05:51.026542
- Title: On the computational power and complexity of Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの計算能力と複雑性について
- Authors: Johan Kwisthout, Nils Donselaar
- Abstract要約: 本研究では, スパイクニューラルネットワークを機械モデルとして導入し, 親しみやすいチューリングマシンとは対照的に, 情報と操作を機械内に共同配置する。
正規問題を導入し、複雑性クラスの階層を定義し、いくつかの最初の完全性結果を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The last decade has seen the rise of neuromorphic architectures based on
artificial spiking neural networks, such as the SpiNNaker, TrueNorth, and Loihi
systems. The massive parallelism and co-locating of computation and memory in
these architectures potentially allows for an energy usage that is orders of
magnitude lower compared to traditional Von Neumann architectures. However, to
date a comparison with more traditional computational architectures
(particularly with respect to energy usage) is hampered by the lack of a formal
machine model and a computational complexity theory for neuromorphic
computation. In this paper we take the first steps towards such a theory. We
introduce spiking neural networks as a machine model where---in contrast to the
familiar Turing machine---information and the manipulation thereof are
co-located in the machine. We introduce canonical problems, define hierarchies
of complexity classes and provide some first completeness results.
- Abstract(参考訳): この10年で、SpiNNaker、TrueNorth、Loihiシステムといった人工スパイクニューラルネットワークに基づくニューロモルフィックアーキテクチャが台頭した。
これらのアーキテクチャにおける計算とメモリの大規模並列性と共同配置により、従来のフォン・ノイマンアーキテクチャに比べて桁違いのエネルギー利用が可能となる。
しかし、これまでは、より伝統的な計算アーキテクチャ(特にエネルギー使用量)との比較は、形式機械モデルとニューロモルフィック計算の計算複雑性理論の欠如によって妨げられている。
本稿では,そのような理論への第一歩を踏み出す。
本研究では, スパイクニューラルネットワークを機械モデルとして導入し, 親しみやすいチューリングマシンとは対照的に, 情報と操作を機械内に共同配置する。
我々は、標準問題を導入し、複雑性クラスの階層を定義し、最初の完全性結果を提供する。
関連論文リスト
- Benchmarking the human brain against computational architectures [0.0]
本稿では,認知能力のベンチマークのための新しい方法論フレームワークについて報告する。
我々は,人間の被験者による実験における計算効率を決定する。
視野の大きさが制限され,ノイズが付加されたニューロモルフィックアーキテクチャが,我々の結果に良い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-05-15T08:00:26Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Machines of finite depth: towards a formalization of neural networks [0.0]
人工ニューラルネットワークとそのアーキテクチャを、一般的な数学的構築の特定の例、すなわち有限深さの機械として形式的に記述できる統一的なフレームワークを提供する。
我々は、この主張を理論的に、実用的に、いくつかの古典的アーキテクチャを一般化する統一的な実装、すなわち、リッチなショートカット構造を持つ高密度、畳み込み、反復的なニューラルネットワーク、およびそれぞれのバックプロパゲーションルールによって証明する。
論文 参考訳(メタデータ) (2022-04-27T09:17:15Z) - The BrainScaleS-2 accelerated neuromorphic system with hybrid plasticity [0.0]
本稿では,BrainScaleSニューロモルフィックアーキテクチャの第2世代について述べる。
バイオインスパイアされたスパイクニューラルネットワークプリミティブの、加速された物理的エミュレーションをサポートするカスタムアクセラレータコアと、密結合されたデジタルプロセッサと、イベントルーティングネットワークを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-01-26T17:13:46Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - A deep learning theory for neural networks grounded in physics [2.132096006921048]
ニューロモルフィックアーキテクチャ上で大規模で高速で効率的なニューラルネットワークを構築するには、それらを実装および訓練するためのアルゴリズムを再考する必要がある。
私たちのフレームワークは、非常に幅広いモデル、すなわち状態やダイナミクスが変動方程式によって記述されるシステムに適用されます。
論文 参考訳(メタデータ) (2021-03-18T02:12:48Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Parametric machines: a fresh approach to architecture search [0.0]
単純な機械がより複雑な機械にどのように組み合わされるかを示す。
ニューラルネットワークとニューラル常微分方程式を一般化する有限・無限深度機械について検討する。
論文 参考訳(メタデータ) (2020-07-06T14:27:06Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。