論文の概要: Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data
- arxiv url: http://arxiv.org/abs/2005.02211v1
- Date: Tue, 5 May 2020 14:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:13:28.672361
- Title: Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data
- Title(参考訳): スパースニューラルネットワークデータによる性能と固有個体群動態の繰り返しニューラルネットワーク学習
- Authors: Alessandro Salatiello and Martin A. Giese
- Abstract要約: 本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
- 参考スコア(独自算出の注目度): 77.92736596690297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Networks (RNNs) are popular models of brain function. The
typical training strategy is to adjust their input-output behavior so that it
matches that of the biological circuit of interest. Even though this strategy
ensures that the biological and artificial networks perform the same
computational task, it does not guarantee that their internal activity dynamics
match. This suggests that the trained RNNs might end up performing the task
employing a different internal computational mechanism, which would make them a
suboptimal model of the biological circuit. In this work, we introduce a novel
training strategy that allows learning not only the input-output behavior of an
RNN but also its internal network dynamics, based on sparse neural recordings.
We test the proposed method by training an RNN to simultaneously reproduce
internal dynamics and output signals of a physiologically-inspired neural
model. Specifically, this model generates the multiphasic muscle-like activity
patterns typically observed during the execution of reaching movements, based
on the oscillatory activation patterns concurrently observed in the motor
cortex. Remarkably, we show that the reproduction of the internal dynamics is
successful even when the training algorithm relies on the activities of a small
subset of neurons sampled from the biological network. Furthermore, we show
that training the RNNs with this method significantly improves their
generalization performance. Overall, our results suggest that the proposed
method is suitable for building powerful functional RNN models, which
automatically capture important computational properties of the biological
circuit of interest from sparse neural recordings.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は、脳機能の一般的なモデルである。
典型的なトレーニング戦略は、生物学的回路と一致するように、入力出力の挙動を調整することである。
この戦略は、生物ネットワークと人工ネットワークが同じ計算タスクを実行することを保証しているが、内部活動のダイナミクスが一致することを保証しない。
このことは、訓練されたRNNが異なる内部計算機構を用いてタスクを実行し、生体回路の最適化モデルとなることを示唆している。
本研究では,RNNの入力出力動作だけでなく,スパークスなニューラル記録に基づく内部ネットワークダイナミクスも学習可能な,新たなトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
具体的には、運動野で同時に観察される振動活性化パターンに基づいて、到達運動の実行中に典型的に観察される多相筋様活動パターンを生成する。
トレーニングアルゴリズムが生物学的ネットワークからサンプリングされたニューロンの小さなサブセットの活性に依存する場合であっても、内部ダイナミクスの再生が成功することを示す。
さらに,本手法によるRNNのトレーニングにより,その一般化性能が大幅に向上することを示す。
提案手法は, 生体回路の重要な計算特性を, スパース・ニューラル記録から自動的に取得する強力な機能的RNNモデルの構築に適していることを示唆する。
関連論文リスト
- Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - Benchmarking Spiking Neural Network Learning Methods with Varying
Locality [2.323924801314763]
スパイキングニューラルネットワーク(SNN)はより現実的な神経力学を提供する。
情報はイベントベースのメカニズムでSNN内のスパイクとして処理される。
スパイキング機構の非分化性のため,SNNのトレーニングは困難であることを示す。
論文 参考訳(メタデータ) (2024-02-01T19:57:08Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - SIT: A Bionic and Non-Linear Neuron for Spiking Neural Network [12.237928453571636]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力と消費電力の低さから、研究者の関心を喚起している。
現在の最先端の手法は、ニューロンが単純な Leaky-Integrate-and-Fire (LIF) モデルに基づいて構築されているため、生物学的な可視性と性能を制限している。
高レベルの動的複雑さのため、現代のニューロンモデルがSNNの実践で実装されることはめったにない。
論文 参考訳(メタデータ) (2022-03-30T07:50:44Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。