論文の概要: Inferring Population Dynamics in Macaque Cortex
- arxiv url: http://arxiv.org/abs/2304.06040v1
- Date: Wed, 5 Apr 2023 14:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 22:07:53.109740
- Title: Inferring Population Dynamics in Macaque Cortex
- Title(参考訳): マカク皮質における個体群動態の推定
- Authors: Ganga Meghanath, Bryan Jimenez, Joseph G. Makin
- Abstract要約: 我々は、リカレントニューラルネットワーク(RNN)に基づくシンプルで汎用的なアーキテクチャが、より多くの"bespoke"モデルより優れていることを示す。
我々は、RNNが課す自己回帰バイアスが最高レベルのパフォーマンスを達成するために重要であると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of multi-unit cortical recordings over the last two
decades, especially in macaques and during motor-control tasks, has generated
interest in neural "population dynamics": the time evolution of neural activity
across a group of neurons working together. A good model of these dynamics
should be able to infer the activity of unobserved neurons within the same
population and of the observed neurons at future times. Accordingly,
Pandarinath and colleagues have introduced a benchmark to evaluate models on
these two (and related) criteria: four data sets, each consisting of firing
rates from a population of neurons, recorded from macaque cortex during
movement-related tasks. Here we show that simple, general-purpose architectures
based on recurrent neural networks (RNNs) outperform more "bespoke" models, and
indeed outperform all published models on all four data sets in the benchmark.
Performance can be improved further still with a novel, hybrid architecture
that augments the RNN with self-attention, as in transformer networks. But pure
transformer models fail to achieve this level of performance, either in our
work or that of other groups. We argue that the autoregressive bias imposed by
RNNs is critical for achieving the highest levels of performance. We conclude,
however, by proposing that the benchmark be augmented with an alternative
evaluation of latent dynamics that favors generative over discriminative models
like the ones we propose in this report.
- Abstract(参考訳): 過去20年間の多単位皮質記録、特にマカクや運動制御タスクにおける増殖は、神経活動の時間的進化である神経の「人口動態」への関心を生んでいる。
これらのダイナミクスのよいモデルは、将来同じ集団内の観察されていないニューロンと観測されたニューロンの活動を推測できるはずである。
そのため、Pandarinath氏と同僚らは、この2つの(および関連する)基準のモデルを評価するためのベンチマークを導入した。
ここでは、リカレントニューラルネットワーク(RNN)に基づく単純で汎用的なアーキテクチャが、より多くの"bespoke"モデルより優れており、実際にベンチマークの4つのデータセットすべてで公開されたモデルよりも優れていることを示す。
トランスフォーマーネットワークのように、RNNを自己注意で強化する新しいハイブリッドアーキテクチャによって、パフォーマンスをさらに改善することができる。
しかし、純粋なトランスフォーマーモデルは、私たちの仕事でも他のグループでも、このレベルのパフォーマンスを達成できません。
我々は、RNNが課す自己回帰バイアスが最高レベルのパフォーマンスを達成するために重要であると論じる。
しかし、本報告で提案するような識別モデルよりも生成的を好む潜在力学の代替評価をベンチマークで拡張することを提案することで結論づける。
関連論文リスト
- SynapsNet: Enhancing Neuronal Population Dynamics Modeling via Learning Functional Connectivity [0.0]
我々は、ニューロン間の機能的相互作用と人口動態を効果的にモデル化する新しいディープラーニングフレームワーク、SynapsNetを紹介した。
共有デコーダは、入力電流、以前の神経活動、ニューロンの埋め込み、行動データを用いて、次のステップで集団活動を予測する。
以上の結果から,SynapsNetの個体群活動予測モデルでは,マウスの皮質活動が従来モデルより常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T22:25:15Z) - Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Representation learning for neural population activity with Neural Data
Transformers [3.4376560669160394]
我々は、明示的力学モデルの非リカレントな代替品であるNeural Data Transformer (NDT)を紹介する。
NDTは3.9msの推論を可能にし、リアルタイムアプリケーションのループ時間内では、リカレントベースラインの6倍以上高速である。
論文 参考訳(メタデータ) (2021-08-02T23:36:39Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Investigation and Analysis of Hyper and Hypo neuron pruning to
selectively update neurons during Unsupervised Adaptation [8.845660219190298]
プルーニングアプローチは、モデルの決定に寄与しない低塩性ニューロンを求める。
この研究は、プルーニングアプローチが、高塩分(主に活性または超活性)または低塩分(ほとんど活性または偽)のニューロンを検出することに成功しているかどうかを調査する。
これは、まず特定のニューロン(高次ニューロンと低次ニューロンからなる)を選択的に適応させ、次にフルネットワークの微調整を行うことが可能であることを示している。
論文 参考訳(メタデータ) (2020-01-06T19:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。