論文の概要: Training Deep Spiking Auto-encoders without Bursting or Dying Neurons
through Regularization
- arxiv url: http://arxiv.org/abs/2109.11045v1
- Date: Wed, 22 Sep 2021 21:27:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:50:42.490096
- Title: Training Deep Spiking Auto-encoders without Bursting or Dying Neurons
through Regularization
- Title(参考訳): 正規化による神経細胞の破裂や死滅を伴わないディープスパイキングオートエンコーダの訓練
- Authors: Justus F. H\"ubotter, Pablo Lanillos, Jakub M. Tomczak
- Abstract要約: スパイクニューラルネットワークは、計算神経科学における次世代の脳モデルに対する有望なアプローチである。
膜電位に基づくバックプロパゲーションを用いたエンドツーエンド学習を、スパイクする畳み込みオートエンコーダに適用する。
膜電位とスパイク出力に正規化を適用することで、死と破裂の両方のニューロンをうまく回避できることを示す。
- 参考スコア(独自算出の注目度): 9.34612743192798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks are a promising approach towards next-generation
models of the brain in computational neuroscience. Moreover, compared to
classic artificial neural networks, they could serve as an energy-efficient
deployment of AI by enabling fast computation in specialized neuromorphic
hardware. However, training deep spiking neural networks, especially in an
unsupervised manner, is challenging and the performance of a spiking model is
significantly hindered by dead or bursting neurons. Here, we apply end-to-end
learning with membrane potential-based backpropagation to a spiking
convolutional auto-encoder with multiple trainable layers of leaky
integrate-and-fire neurons. We propose bio-inspired regularization methods to
control the spike density in latent representations. In the experiments, we
show that applying regularization on membrane potential and spiking output
successfully avoids both dead and bursting neurons and significantly decreases
the reconstruction error of the spiking auto-encoder. Training regularized
networks on the MNIST dataset yields image reconstruction quality comparable to
non-spiking baseline models (deterministic and variational auto-encoder) and
indicates improvement upon earlier approaches. Importantly, we show that,
unlike the variational auto-encoder, the spiking latent representations display
structure associated with the image class.
- Abstract(参考訳): スパイクニューラルネットワークは、計算神経科学における次世代の脳モデルに対する有望なアプローチである。
さらに、従来の人工ニューラルネットワークと比較して、特殊なニューロモルフィックハードウェアでの高速計算を可能にすることで、aiのエネルギー効率の高い展開として機能する。
しかし、特に教師なしの方法でディープスパイクニューラルネットワークのトレーニングは困難であり、スパイクモデルのパフォーマンスは死んだニューロンや破裂ニューロンによって著しく阻害される。
本稿では,複数の入力層を有するスパイキング畳み込み型オートエンコーダに対して,膜電位に基づくバックプロパゲーションを用いたエンド・ツー・エンド学習を適用する。
本稿では,潜在表現のスパイク密度を制御するためのバイオインスパイア正規化手法を提案する。
実験では, 膜電位とスパイキング出力に正規化を適用することで, 致死性ニューロンと破裂性ニューロンの両方を回避でき, スパイキングオートエンコーダの再構成誤差を著しく低減できることを示した。
mnistデータセット上の正規化ネットワークのトレーニングは、非スピーキングベースラインモデル(決定論的および変分オートエンコーダ)に匹敵する画像再構成品質を与え、以前のアプローチでの改善を示す。
重要なことは、変分オートエンコーダとは異なり、スパイキングラテント表現は画像クラスに関連する構造を示すことである。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Toward Neuromic Computing: Neurons as Autoencoders [0.0]
本稿では、神経バックプロパゲーションが樹状突起処理を用いて、個々のニューロンが自己エンコーディングを行うことを可能にするという考えを述べる。
非常に単純な接続重み探索と人工ニューラルネットワークモデルを用いて、フィードフォワードネットワークの隠蔽層における各ニューロンに対する自己エンコーディングのインターリーブ効果について検討した。
論文 参考訳(メタデータ) (2024-03-04T18:58:09Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Surrogate Gradient Spiking Neural Networks as Encoders for Large
Vocabulary Continuous Speech Recognition [91.39701446828144]
スパイクニューラルネットワークは, 代理勾配法を用いて, 通常のリカレントニューラルネットワークのように訓練可能であることを示す。
彼らは音声コマンド認識タスクについて有望な結果を示した。
繰り返し発生する非スパイキングとは対照的に、ゲートを使わずに爆発する勾配問題に対して堅牢性を示す。
論文 参考訳(メタデータ) (2022-12-01T12:36:26Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。