論文の概要: Spiking neural network for nonlinear regression
- arxiv url: http://arxiv.org/abs/2210.03515v1
- Date: Thu, 6 Oct 2022 13:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:50:40.953759
- Title: Spiking neural network for nonlinear regression
- Title(参考訳): 非線形回帰のためのスパイキングニューラルネットワーク
- Authors: Alexander Henkes, Jason K. Eshraghian, Henning Wessels
- Abstract要約: スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks, also often referred to as the third generation of
neural networks, carry the potential for a massive reduction in memory and
energy consumption over traditional, second-generation neural networks.
Inspired by the undisputed efficiency of the human brain, they introduce
temporal and neuronal sparsity, which can be exploited by next-generation
neuromorphic hardware. To open the pathway toward engineering applications, we
introduce this exciting technology in the context of continuum mechanics.
However, the nature of spiking neural networks poses a challenge for regression
problems, which frequently arise in the modeling of engineering sciences. To
overcome this problem, a framework for regression using spiking neural networks
is proposed. In particular, a network topology for decoding binary spike trains
to real numbers is introduced, utilizing the membrane potential of spiking
neurons. As the aim of this contribution is a concise introduction to this new
methodology, several different spiking neural architectures, ranging from
simple spiking feed-forward to complex spiking long short-term memory neural
networks, are derived. Several numerical experiments directed towards
regression of linear and nonlinear, history-dependent material models are
carried out. A direct comparison with counterparts of traditional neural
networks shows that the proposed framework is much more efficient while
retaining precision and generalizability. All code has been made publicly
available in the interest of reproducibility and to promote continued
enhancement in this new domain.
- Abstract(参考訳): 第3世代のニューラルネットワークとも呼ばれるスパイクニューラルネットワークは、従来の第2世代のニューラルネットワークよりもメモリとエネルギー消費が大幅に減少する可能性を持っている。
人間の脳の無論の効率に触発され、時間的および神経細胞のスパーシティを導入し、次世代のニューロモルフィック・ハードウェアによって悪用される。
工学的応用への道を開くために,このエキサイティングな技術を連続力学の文脈で紹介する。
しかし、スパイキングニューラルネットワークの性質は回帰問題に挑戦し、エンジニアリング科学のモデリングにおいてしばしば発生する。
この問題を解決するために,スパイクニューラルネットワークを用いた回帰フレームワークを提案する。
特に,スパイキングニューロンの膜電位を利用して,バイナリスパイク列を実数に復号するネットワークトポロジーを導入する。
この貢献の目的は、この新しい手法の簡潔な導入であり、単純なスパイクフィードフォワードから複雑なスパイクロング短期記憶ニューラルネットワークまで、いくつかの異なるスパイクニューラルアーキテクチャが導出される。
線形および非線形な履歴依存材料モデルの回帰に向け、いくつかの数値実験を行った。
従来のニューラルネットワークと直接比較すると、提案するフレームワークは精度と一般化性を保ちながらはるかに効率的であることがわかる。
すべてのコードは再現性のために公開され、この新しいドメインにおける継続的な拡張を促進する。
関連論文リスト
- Hybrid deep additive neural networks [0.0]
加算回帰という概念を取り入れた新しいディープニューラルネットワークを導入する。
我々のニューラルネットワークは、Kolmogorov-Arnoldネットワークとアーキテクチャ上の類似点を共有しているが、よりシンプルで柔軟なアクティベーションと基底関数に基づいている。
我々はそれらの普遍近似特性を導出し、シミュレーション研究と実データ応用を通してその効果を実証する。
論文 参考訳(メタデータ) (2024-11-14T04:26:47Z) - Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Spike-based computation using classical recurrent neural networks [1.9171404264679484]
スパイキングニューラルネットワーク(英: Spiking Neural Network)は、ニューロン間の通信が、スパイクと呼ばれるイベントのみによって構成される人工ニューラルネットワークである。
我々は、よく知られた、訓練が容易なリカレントニューラルネットワークのダイナミクスを変更して、イベントベースにする。
この新ネットワークは,MNISTベンチマークにおいて,他の種類のスパイクネットワークに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-06T12:19:12Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。