論文の概要: A Unified, Scalable Framework for Neural Population Decoding
- arxiv url: http://arxiv.org/abs/2310.16046v1
- Date: Tue, 24 Oct 2023 17:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 17:19:05.328316
- Title: A Unified, Scalable Framework for Neural Population Decoding
- Title(参考訳): ニューラル集団デコードのための統一的でスケーラブルなフレームワーク
- Authors: Mehdi Azabou, Vinam Arora, Venkataramana Ganesh, Ximeng Mao, Santosh
Nachimuthu, Michael J. Mendelson, Blake Richards, Matthew G. Perich,
Guillaume Lajoie, Eva L. Dyer
- Abstract要約: 神経活動の集団動態をモデル化するためのトレーニングフレームワークとアーキテクチャを導入する。
我々は,ヒト以外の霊長類7種の大規模データセットに基づいて訓練された大規模マルチセッションモデルを構築した。
- 参考スコア(独自算出の注目度): 12.052847252465826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our ability to use deep learning approaches to decipher neural activity would
likely benefit from greater scale, in terms of both model size and datasets.
However, the integration of many neural recordings into one unified model is
challenging, as each recording contains the activity of different neurons from
different individual animals. In this paper, we introduce a training framework
and architecture designed to model the population dynamics of neural activity
across diverse, large-scale neural recordings. Our method first tokenizes
individual spikes within the dataset to build an efficient representation of
neural events that captures the fine temporal structure of neural activity. We
then employ cross-attention and a PerceiverIO backbone to further construct a
latent tokenization of neural population activities. Utilizing this
architecture and training framework, we construct a large-scale multi-session
model trained on large datasets from seven nonhuman primates, spanning over 158
different sessions of recording from over 27,373 neural units and over 100
hours of recordings. In a number of different tasks, we demonstrate that our
pretrained model can be rapidly adapted to new, unseen sessions with
unspecified neuron correspondence, enabling few-shot performance with minimal
labels. This work presents a powerful new approach for building deep learning
tools to analyze neural data and stakes out a clear path to training at scale.
- Abstract(参考訳): ニューラルアクティビティを解読するためにディープラーニングアプローチを使用する能力は、モデルのサイズとデータセットの両方の観点から、より大きなスケールの恩恵を受けるでしょう。
しかし、複数の神経記録を1つの統一モデルに統合することは困難であり、それぞれの記録には個々の動物の異なるニューロンの活動が含まれている。
本稿では,多種多様な大規模ニューラル記録における神経活動の集団動態をモデル化するためのトレーニングフレームワークとアーキテクチャを提案する。
提案手法は,まずデータセット内の個々のスパイクをトークン化し,神経活動の微細な時間構造を捉えるニューラルネットワークイベントの効率的な表現を構築する。
次に、交差注意とPerceiverIOバックボーンを用いて、神経集団活動の潜在トークン化をさらに構築する。
このアーキテクチャとトレーニングフレームワークを利用して、7つの非ヒト霊長類からの大規模データセットでトレーニングされた大規模マルチセッションモデルを構築し、27,373以上の神経ユニットと100時間以上の記録から、158以上の異なる記録セッションにまたがる。
多くの異なるタスクにおいて、我々の事前訓練されたモデルは、未特定のニューロン対応を持つ新しい未確認セッションに迅速に適応できることを示し、最小限のラベルによる少数ショットのパフォーマンスを実現する。
この研究は、ニューラルネットワークを分析するディープラーニングツールを構築するための強力な新しいアプローチを示し、大規模トレーニングへの明確な道を切り開く。
関連論文リスト
- Meta-Dynamical State Space Models for Integrative Neural Data Analysis [8.625491800829224]
環境間の共有構造を学習することは、ニューラルネットワークの迅速な学習と適応的な振る舞いを促進する。
ニューラル記録から潜伏ダイナミクスを学習するのと同様の作業中に、ニューラルアクティビティの共有構造を利用する作業は限られている。
本稿では,訓練動物のタスク関連神経活動から,この解空間をメタラーニングするための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T19:35:49Z) - Towards a "universal translator" for neural dynamics at single-cell, single-spike resolution [10.49121904052395]
我々は、複数の脳領域にまたがる多様なタスクを解決できる、神経スパイクデータのための最初の基礎モデルを構築する。
予測タスクには、単一ニューロンとリージョンレベルのアクティビティ予測、前方予測、行動復号化などがある。
論文 参考訳(メタデータ) (2024-07-19T21:05:28Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Capturing cross-session neural population variability through
self-supervised identification of consistent neuron ensembles [1.2617078020344619]
ディープニューラルネットワークの自己教師型トレーニングは、セッション間変動の補償に利用できることを示す。
シーケンシャルな自動符号化モデルは、未来まで数日間、完全に見えない記録セッションのために、最先端の動作復号性能を維持することができる。
論文 参考訳(メタデータ) (2022-05-19T20:00:33Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。