論文の概要: Genetic Algorithmic Parameter Optimisation of a Recurrent Spiking Neural
Network Model
- arxiv url: http://arxiv.org/abs/2003.13850v2
- Date: Wed, 27 May 2020 23:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:35:34.856739
- Title: Genetic Algorithmic Parameter Optimisation of a Recurrent Spiking Neural
Network Model
- Title(参考訳): 繰り返しスパイクニューラルネットワークモデルの遺伝的アルゴリズムパラメータ最適化
- Authors: Ifeatu Ezenwe, Alok Joshi and KongFatt Wong-Lin
- Abstract要約: 我々は遺伝的アルゴリズム(GA)を用いて繰り返しスパイクニューラルネットワーク(SNN)の最適パラメータを探索する。
我々は,1000個のIzhikevich刺激ニューロンからなる皮質列型SNNを計算効率と生物学的リアリズムのために検討した。
その結果, GAの最適個体数は16~20人以内であり, クロスオーバー率は0.95であった。
- 参考スコア(独自算出の注目度): 0.6767885381740951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are complex algorithms that loosely model the behaviour of
the human brain. They play a significant role in computational neuroscience and
artificial intelligence. The next generation of neural network models is based
on the spike timing activity of neurons: spiking neural networks (SNNs).
However, model parameters in SNNs are difficult to search and optimise.
Previous studies using genetic algorithm (GA) optimisation of SNNs were focused
mainly on simple, feedforward, or oscillatory networks, but not much work has
been done on optimising cortex-like recurrent SNNs. In this work, we
investigated the use of GAs to search for optimal parameters in recurrent SNNs
to reach targeted neuronal population firing rates, e.g. as in experimental
observations. We considered a cortical column based SNN comprising 1000
Izhikevich spiking neurons for computational efficiency and biologically
realism. The model parameters explored were the neuronal biased input currents.
First, we found for this particular SNN, the optimal parameter values for
targeted population averaged firing activities, and the convergence of
algorithm by ~100 generations. We then showed that the GA optimal population
size was within ~16-20 while the crossover rate that returned the best fitness
value was ~0.95. Overall, we have successfully demonstrated the feasibility of
implementing GA to optimise model parameters in a recurrent cortical based SNN.
- Abstract(参考訳): ニューラルネットワークは、人間の脳の振る舞いをゆるくモデル化する複雑なアルゴリズムである。
計算神経科学と人工知能において重要な役割を果たしている。
次世代のニューラルネットワークモデルは、スパイキングニューラルネットワーク(SNN)と呼ばれるニューロンのスパイクタイミングアクティビティに基づいている。
しかし,SNNにおけるモデルパラメータの探索と最適化は困難である。
遺伝的アルゴリズム (ga) によるsnsの最適化は, 主に単純, フィードフォワード, 振動ネットワークに焦点が当てられていたが, 皮質様再帰的snsの最適化についてはあまり研究されていない。
本研究では,再帰的なSNNにおける最適パラメータの探索にGAを用いて,標的となる神経細胞の発火率,例えば実験観察に用いた。
計算効率と生物学的リアリズムのために,1000個のIzhikevich刺激ニューロンからなる皮質柱型SNNを検討した。
検討されたモデルパラメータは、ニューロンバイアス入力電流である。
まず, このSNNについて, 対象人口平均発射活動の最適パラメータ値と, 約100世代毎のアルゴリズムの収束について検討した。
その結果, GAの最適個体数は ~16-20 の範囲内であり, クロスオーバー率は ~0.95 であった。
全体として、我々は、反復する皮質SNNにおいてモデルパラメータを最適化するためのGAの実装の可能性を示した。
関連論文リスト
- Spatial-Temporal Search for Spiking Neural Networks [32.937536365872745]
スパイキングニューラルネットワーク(SNN)は、次世代人工知能の潜在的な候補と考えられている。
空間次元と時間次元の両方でSNNを最適化するための微分可能なアプローチを提案する。
本手法は,96.43%,78.96%,70.21%の精度でCIFAR10/100とImageNetの分類性能を比較検討した。
論文 参考訳(メタデータ) (2024-10-24T09:32:51Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Sparse Spiking Neural Network: Exploiting Heterogeneity in Timescales
for Pruning Recurrent SNN [19.551319330414085]
スパイキングニューラルネットワーク(RSNN)は、計算的に効率的で脳に触発された学習モデルとして登場した。
伝統的に、スパースSNNは、まずターゲットタスクのために密度が高く複雑なSNNを訓練することによって得られる。
本稿では,大きめのランダムモデルを用いて,スパースRSNNを設計するためのタスク依存手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T02:36:15Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Multi-Objective Optimisation of Cortical Spiking Neural Networks With
Genetic Algorithms [0.7995360025953929]
スパイキングニューラルネットワーク(SNN)は、ニューロンのオール・オア・ノー・スパイキング活動を通じて通信する。
遺伝的アルゴリズム(GA)を効率的なSNNモデルに最適化する以前の研究は、単一のパラメータと目的に限られていた。
この研究は、Non-dominated sorting GA (NSGA-III) と呼ばれるGAのバージョンを適用し、同じSNN上で多目的最適化を行う可能性を示した。
論文 参考訳(メタデータ) (2021-05-14T13:35:39Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。