論文の概要: Multi-Objective Optimisation of Cortical Spiking Neural Networks With
Genetic Algorithms
- arxiv url: http://arxiv.org/abs/2105.06824v1
- Date: Fri, 14 May 2021 13:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 04:21:22.542538
- Title: Multi-Objective Optimisation of Cortical Spiking Neural Networks With
Genetic Algorithms
- Title(参考訳): 遺伝的アルゴリズムを用いた皮質スパイクニューラルネットワークの多目的最適化
- Authors: James Fitzgerald and KongFatt Wong-Lin
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ニューロンのオール・オア・ノー・スパイキング活動を通じて通信する。
遺伝的アルゴリズム(GA)を効率的なSNNモデルに最適化する以前の研究は、単一のパラメータと目的に限られていた。
この研究は、Non-dominated sorting GA (NSGA-III) と呼ばれるGAのバージョンを適用し、同じSNN上で多目的最適化を行う可能性を示した。
- 参考スコア(独自算出の注目度): 0.7995360025953929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) communicate through the all-or-none spiking
activity of neurons. However, fitting the large number of SNN model parameters
to observed neural activity patterns, for example, in biological experiments,
remains a challenge. Previous work using genetic algorithm (GA) optimisation on
a specific efficient SNN model, using the Izhikevich neuronal model, was
limited to a single parameter and objective. This work applied a version of GA,
called non-dominated sorting GA (NSGA-III), to demonstrate the feasibility of
performing multi-objective optimisation on the same SNN, focusing on searching
network connectivity parameters to achieve target firing rates of excitatory
and inhibitory neuronal types, including across different network connectivity
sparsity. We showed that NSGA-III could readily optimise for various firing
rates. Notably, when the excitatory neural firing rates were higher than or
equal to that of inhibitory neurons, the errors were small. Moreover, when
connectivity sparsity was considered as a parameter to be optimised, the
optimal solutions required sparse network connectivity. We also found that for
excitatory neural firing rates lower than that of inhibitory neurons, the
errors were generally larger. Overall, we have successfully demonstrated the
feasibility of implementing multi-objective GA optimisation on network
parameters of recurrent and sparse SNN.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューロンのオール・オ・ノー・スパイキング活動を通じて通信する。
しかし、多くのsnモデルパラメータを観察された神経活動パターン、例えば生物学的実験に適合させることは依然として課題である。
Izhikevichニューロンモデルを用いた特定の効率的なSNNモデルに対する遺伝的アルゴリズム(GA)の最適化は、単一のパラメータと目的に限られていた。
この研究は、非支配的ソートga(nsga-iii)と呼ばれるgaのバージョンを適用し、ネットワーク接続パラメータを探索し、異なるネットワーク接続スパーシティを含む興奮性および抑制性ニューロンタイプの標的射撃率を達成することに焦点を当て、同じsn上で多目的最適化を行うことの可能性を実証した。
我々はNSGA-IIIが様々な発射速度に容易に最適化可能であることを示した。
特に,興奮性神経発射速度が抑制ニューロンのそれと同等であった場合,誤差は小さくなった。
さらに、接続スパーシティを最適化するパラメータと見なす場合、最適解はスパースネットワーク接続が必要となる。
また,抑制ニューロンよりも低い興奮性神経発火率では,一般に誤差が大きいことがわかった。
提案手法は,再帰およびスパースSNNのネットワークパラメータに対する多目的GA最適化の実現の可能性を示すものである。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Evolutionary Multi-objective Optimisation in Neurotrajectory Prediction [0.0]
この研究は、車両軌道予測のための神経進化の進歩的な一歩を踏み出す。
この目的のために、CNNとLong-Short Term Memory NetworkからなるリッチなANNが採用されている。
EMOアルゴリズム、NSGA-II、MOEA/Dも採用されている。
論文 参考訳(メタデータ) (2023-08-04T21:06:26Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Deep Kronecker neural networks: A general framework for neural networks
with adaptive activation functions [4.932130498861987]
我々は,適応的アクティベーション機能を持つニューラルネットワークの汎用フレームワークとして,新しいタイプのニューラルネットワークKronecker Neural Network(KNN)を提案する。
適切な条件下では、KNNはフィードフォワードネットワークによる損失よりも早く損失を減少させる。
論文 参考訳(メタデータ) (2021-05-20T04:54:57Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Genetic Algorithmic Parameter Optimisation of a Recurrent Spiking Neural
Network Model [0.6767885381740951]
我々は遺伝的アルゴリズム(GA)を用いて繰り返しスパイクニューラルネットワーク(SNN)の最適パラメータを探索する。
我々は,1000個のIzhikevich刺激ニューロンからなる皮質列型SNNを計算効率と生物学的リアリズムのために検討した。
その結果, GAの最適個体数は16~20人以内であり, クロスオーバー率は0.95であった。
論文 参考訳(メタデータ) (2020-03-30T22:44:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。