論文の概要: Brain-inspired Evolutionary Architectures for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2309.05263v1
- Date: Mon, 11 Sep 2023 06:39:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:38:10.989516
- Title: Brain-inspired Evolutionary Architectures for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための脳にインスパイアされた進化的アーキテクチャ
- Authors: Wenxuan Pan, Feifei Zhao, Zhuoya Zhao, Yi Zeng
- Abstract要約: スパイキングニューラルネットワーク(SNN)の効率的なアーキテクチャ最適化について検討する。
本稿では,脳にインスパイアされた局所モジュール構造とグローバルモジュール接続を取り入れたSNNアーキテクチャを進化させる。
本稿では,高性能,効率,消費電力の少ないSNNを用いた,数ショット性能予測器に基づく効率的な多目的進化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.607406750195899
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The complex and unique neural network topology of the human brain formed
through natural evolution enables it to perform multiple cognitive functions
simultaneously. Automated evolutionary mechanisms of biological network
structure inspire us to explore efficient architectural optimization for
Spiking Neural Networks (SNNs). Instead of manually designed fixed
architectures or hierarchical Network Architecture Search (NAS), this paper
evolves SNNs architecture by incorporating brain-inspired local modular
structure and global cross-module connectivity. Locally, the brain
region-inspired module consists of multiple neural motifs with excitatory and
inhibitory connections; Globally, we evolve free connections among modules,
including long-term cross-module feedforward and feedback connections. We
further introduce an efficient multi-objective evolutionary algorithm based on
a few-shot performance predictor, endowing SNNs with high performance,
efficiency and low energy consumption. Extensive experiments on static datasets
(CIFAR10, CIFAR100) and neuromorphic datasets (CIFAR10-DVS, DVS128-Gesture)
demonstrate that our proposed model boosts energy efficiency, archiving
consistent and remarkable performance. This work explores brain-inspired neural
architectures suitable for SNNs and also provides preliminary insights into the
evolutionary mechanisms of biological neural networks in the human brain.
- Abstract(参考訳): 自然進化によって形成される人間の脳の複雑でユニークな神経ネットワークトポロジーは、同時に複数の認知機能を実行することができる。
生体ネットワーク構造の自動進化機構は、スパイクニューラルネットワーク(snn)の効率的なアーキテクチャ最適化を探求するきっかけとなる。
手動で設計した固定アーキテクチャや階層型ネットワークアーキテクチャ検索(NAS)の代わりに、脳にインスパイアされたローカルなモジュール構造とグローバルなクロスモジュール接続を組み込むことで、SNNアーキテクチャを進化させる。
局所的には、脳領域にインスパイアされたモジュールは、興奮的および抑制的な接続を持つ複数の神経モチーフから構成される;グローバル的には、長期のクロスモジュールフィードフォワードやフィードバック接続を含むモジュール間の自由接続を進化させる。
さらに,高性能,効率,消費電力の少ないSNNを用いた,数ショットの性能予測器に基づく効率的な多目的進化アルゴリズムを提案する。
静的データセット (CIFAR10, CIFAR100) とニューロモルフィックデータセット (CIFAR10-DVS, DVS128-Gesture) に関する大規模な実験により, 提案モデルがエネルギー効率を向上し, 一貫性と顕著な性能を実証した。
この研究は、SNNに適した脳にインスパイアされた神経アーキテクチャを探求するとともに、人間の脳における生物学的ニューラルネットワークの進化機構に関する予備的な洞察を提供する。
関連論文リスト
- Enhancing learning in artificial neural networks through cellular heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Multi-scale Evolutionary Neural Architecture Search for Deep Spiking
Neural Networks [7.271032282434803]
スパイキングニューラルネットワーク(SNN)のためのマルチスケール進化型ニューラルネットワーク探索(MSE-NAS)を提案する。
MSE-NASは脳にインスパイアされた間接的評価機能であるRepresentational Dissimilarity Matrices(RDMs)を介して、個々のニューロンの操作、複数の回路モチーフの自己組織化の統合、およびグローバルなモチーフ間の接続を進化させる
提案アルゴリズムは,静的データセットとニューロモルフィックデータセットのシミュレーションステップを短縮して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-04-21T05:36:37Z) - Biologically inspired structure learning with reverse knowledge
distillation for spiking neural networks [19.33517163587031]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性から感覚情報認識タスクにおいて非常に優れた特徴を持つ。
現在のスパイクベースのモデルの性能は、完全に接続された構造か深すぎる構造かによって制限されている。
本稿では,より合理的なSNNを構築するための進化的構造構築法を提案する。
論文 参考訳(メタデータ) (2023-04-19T08:41:17Z) - A Self-adaptive Neuroevolution Approach to Constructing Deep Neural
Network Architectures Across Different Types [5.429458930060452]
本稿では,様々なタスクに対して,様々な軽量なDeep Neural Network(DNN)アーキテクチャを自動構築する,自己適応型神経進化(SANE)アプローチを提案する。
SANEの重要な設定の1つは、異なるDNNタイプに適応した細胞と臓器によって定義された検索空間である。
SANEは、進化探索とエクスプロイトを自己適応的に調整し、探索効率を向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T07:40:25Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Motif-topology and Reward-learning improved Spiking Neural Network for
Efficient Multi-sensory Integration [5.161352821775507]
効率的なマルチ感覚統合のためのMotif-topology and Reward-learning improved Spiking Neural Network (MR-SNN)を提案する。
実験の結果,Motifsを用いない従来のSNNに比べて,MR-SNNの精度が高く,強靭性も高いことがわかった。
提案した報奨学習パラダイムは生物学的に妥当であり,視覚的・聴覚的感覚信号の相違による認知的マガーク効果をよりよく説明することができる。
論文 参考訳(メタデータ) (2022-02-11T02:07:44Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - A multi-agent model for growing spiking neural networks [0.0]
このプロジェクトでは、学習メカニズムとして、スパイキングニューラルネットワークのニューロン間の接続を拡大するためのルールについて検討している。
シミュレーション環境での結果は、与えられたパラメータセットに対して、テストされた関数を再現するトポロジに到達可能であることを示した。
このプロジェクトはまた、モデルパラメーターに最適な値を得るために、遺伝的アルゴリズムのようなテクニックを使用するための扉を開く。
論文 参考訳(メタデータ) (2020-09-21T15:11:29Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。