論文の概要: Emergence of Brain-inspired Small-world Spiking Neural Network through
Neuroevolution
- arxiv url: http://arxiv.org/abs/2304.10749v4
- Date: Tue, 26 Sep 2023 14:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 22:36:04.497226
- Title: Emergence of Brain-inspired Small-world Spiking Neural Network through
Neuroevolution
- Title(参考訳): 神経進化による脳誘発小世界スパイクニューラルネットの創発
- Authors: Wenxuan Pan, Feifei Zhao, Bing Han, Yiting Dong, Yi Zeng
- Abstract要約: 脳にインスパイアされた人工知能は、この自然な進化過程の計算的継続として機能する。
研究によると、人間の脳の高効率と低エネルギー消費は、その小さな世界のトポロジーと臨界ダイナミクスと密接に関連している可能性がある。
本稿では,多目的進化的液体状態機械 (ELSM) を提案する。
- 参考スコア(独自算出の注目度): 11.933476732478034
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human brain is the product of evolution during hundreds over millions of
years and can engage in multiple advanced cognitive functions with low energy
consumption. Brain-inspired artificial intelligence serves as a computational
continuation of this natural evolutionary process, is imperative to take
inspiration from the evolutionary mechanisms of brain structure and function.
Studies suggest that the human brain's high efficiency and low energy
consumption may be closely related to its small-world topology and critical
dynamics. However, existing efforts on the performance-oriented structural
evolution of spiking neural networks (SNNs) are time-consuming and ignore the
core structural properties of the brain. In this paper, we propose a
multi-objective Evolutionary Liquid State Machine (ELSM) with the combination
of small-world coefficient and criticality as evolution goals and
simultaneously integrate the topological properties of spiking neural networks
from static and dynamic perspectives to guide the emergence of brain-inspired
efficient structures. Extensive experiments show a consistent and comparable
performance of the proposed model compared to LSM-based and hierarchical SNNs
algorithms: it achieves 97.23\% on NMNIST, and reaches the state-of-art
performance compared to all LSM models on MNIST and Fashion-MNIST (98.05\% and
88.81\%, respectively). A thorough analysis reveals the spontaneous emergence
of hub nodes, short paths, long-tailed degree distributions, and numerous
community structures in evolutionary models. This work evolves recurrent
spiking neural networks into brain-inspired efficient structures and dynamics,
providing the potential to achieve adaptive general aritficial intelligence.
- Abstract(参考訳): 人間の脳は何百万年もの間進化の産物であり、エネルギー消費の少ない複数の高度な認知機能に関与することができる。
脳にインスパイアされた人工知能は、この自然な進化過程の計算的継続に役立ち、脳の構造と機能の進化的メカニズムから着想を得ることが不可欠である。
研究は、人間の脳の高効率と低エネルギー消費は、その小世界のトポロジーと臨界ダイナミクスと密接に関連していることを示唆している。
しかしながら、スパイキングニューラルネットワーク(SNN)の性能指向構造進化に対する既存の取り組みは、脳の中核構造特性を無視し、時間を要する。
本稿では,スモールワールド係数と臨界性を組み合わせた多目的進化液体状態機械(elsm)を進化目標として提案し,スパイクニューラルネットワークの位相特性を静的および動的視点から統合し,脳にインスパイアされた効率的な構造の出現を導く。
広範な実験により、lsmベースと階層型snsアルゴリズムと比較して、提案モデルの一貫性と同等の性能を示す: 97.23\%をnmnistで達成し、mnistとfashion-mnistのすべてのlsmモデル(それぞれ98.05\%と88.81\%)と比較して、最先端のパフォーマンスに達する。
網羅的な分析により、ハブノードの自然発生、短い経路、長期分布、進化モデルにおける多くのコミュニティ構造が明らかになった。
この研究は、繰り返し発生するスパイクニューラルネットワークを脳にインスパイアされた効率的な構造とダイナミクスへと進化させ、適応的な一般知能を実現する可能性をもたらす。
関連論文リスト
- Spatial-Temporal Search for Spiking Neural Networks [32.937536365872745]
スパイキングニューラルネットワーク(SNN)は、次世代人工知能の潜在的な候補と考えられている。
空間次元と時間次元の両方でSNNを最適化するための微分可能なアプローチを提案する。
本手法は,96.43%,78.96%,70.21%の精度でCIFAR10/100とImageNetの分類性能を比較検討した。
論文 参考訳(メタデータ) (2024-10-24T09:32:51Z) - Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - Brain-inspired Evolutionary Architectures for Spiking Neural Networks [6.607406750195899]
スパイキングニューラルネットワーク(SNN)の効率的なアーキテクチャ最適化について検討する。
本稿では,脳にインスパイアされた局所モジュール構造とグローバルモジュール接続を取り入れたSNNアーキテクチャを進化させる。
本稿では,高性能,効率,消費電力の少ないSNNを用いた,数ショット性能予測器に基づく効率的な多目的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-11T06:39:11Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Finite Meta-Dynamic Neurons in Spiking Neural Networks for
Spatio-temporal Learning [13.037452551907657]
Spiking Neural Networks (SNN) は、生物学的に証明可能な構造と学習原則を取り入れている。
時相学習におけるネットワークの一般化を改善するために,SNNを改善するメタ動的ニューロン(MDN)を提案する。
MDNは空間的(MNIST)と時間的(TIt)データセットから生成され、その後様々な時間的タスクに拡張された。
論文 参考訳(メタデータ) (2020-10-07T03:49:28Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。