論文の概要: Emergent Bio-Functional Similarities in a Cortical-Spike-Train-Decoding
Spiking Neural Network Facilitate Predictions of Neural Computation
- arxiv url: http://arxiv.org/abs/2303.07830v1
- Date: Tue, 14 Mar 2023 12:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 15:22:08.787657
- Title: Emergent Bio-Functional Similarities in a Cortical-Spike-Train-Decoding
Spiking Neural Network Facilitate Predictions of Neural Computation
- Title(参考訳): 皮質-スパイク-トレイン-デコード・スパイキングニューラルネットワークの神経計算予測における創発的バイオファンクション類似性
- Authors: Tengjun Liu, Yansong Chua, Yiwei Zhang, Yuxiao Ning, Pengfu Liu,
Guihua Wan, Zijun Wan, Shaomin Zhang, Weidong Chen
- Abstract要約: モーターSRNNは霊長類の神経モーター回路にインスパイアされた、ゴール駆動のスパイクニューラルネットワークである。
サルの一次運動野からスパイクトレインをデコードする。
単一ニューロン、個体群、回路レベルでの生体機能的類似性を生み出し、生物学的信頼性を示す。
- 参考スコア(独自算出の注目度): 11.732362647155579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its better bio-plausibility, goal-driven spiking neural network (SNN)
has not achieved applicable performance for classifying biological spike
trains, and showed little bio-functional similarities compared to traditional
artificial neural networks. In this study, we proposed the motorSRNN, a
recurrent SNN topologically inspired by the neural motor circuit of primates.
By employing the motorSRNN in decoding spike trains from the primary motor
cortex of monkeys, we achieved a good balance between classification accuracy
and energy consumption. The motorSRNN communicated with the input by capturing
and cultivating more cosine-tuning, an essential property of neurons in the
motor cortex, and maintained its stability during training. Such
training-induced cultivation and persistency of cosine-tuning was also observed
in our monkeys. Moreover, the motorSRNN produced additional bio-functional
similarities at the single-neuron, population, and circuit levels,
demonstrating biological authenticity. Thereby, ablation studies on motorSRNN
have suggested long-term stable feedback synapses contribute to the
training-induced cultivation in the motor cortex. Besides these novel findings
and predictions, we offer a new framework for building authentic models of
neural computation.
- Abstract(参考訳): バイオプルーサビリティが向上したにもかかわらず、目標駆動スパイクニューラルネットワーク(snn)は生物学的スパイクトレインの分類に応用可能な性能を得られておらず、従来の人工ニューラルネットワークと比較して生物機能的な類似性はほとんど示されていない。
本研究では,霊長類の神経モーター回路にインスパイアされたSNNトポロジカルリカレントSNNモータSRNNを提案する。
サルの一次運動野からのスパイク列車の復号にモーターSRNNを用い,分類精度とエネルギー消費のバランスが良好であった。
motorsrnnは、運動野のニューロンの必須特性であるより多くのコサインチューニングを捕捉して培養することで入力と通信し、トレーニング中にその安定性を維持した。
サルでは,コサインチューニングの訓練による栽培と持続性も観察された。
さらに、モーターSRNNは、単一ニューロン、集団、回路レベルで追加の生体機能的類似性を生み出し、生物学的信頼性を示した。
これにより, 運動野における長期安定フィードバックシナプスがトレーニング誘発培養に寄与することが示唆された。
これらの新たな発見と予測に加えて,神経計算の真のモデルを構築するための新しいフレームワークを提供する。
関連論文リスト
- A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Dive into the Power of Neuronal Heterogeneity [8.6837371869842]
進化戦略(ES)を用いて、スパイキングニューラルネットワーク(SNN)を最適化し、ランダムネットワークにおける異種ニューロンのより堅牢な最適化を実現するためのバックプロパゲーションベースの手法が直面する課題を示す。
膜時間定数は神経異質性において重要な役割を担っており、その分布は生物学的実験で観察されたものと類似している。
論文 参考訳(メタデータ) (2023-05-19T07:32:29Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network [12.237928453571636]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
論文 参考訳(メタデータ) (2022-03-30T07:50:44Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。