論文の概要: Capturing cross-session neural population variability through
self-supervised identification of consistent neuron ensembles
- arxiv url: http://arxiv.org/abs/2205.09829v1
- Date: Thu, 19 May 2022 20:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 13:03:04.950158
- Title: Capturing cross-session neural population variability through
self-supervised identification of consistent neuron ensembles
- Title(参考訳): 一貫したニューロンアンサンブルの自己教師あり同定による交叉性神経集団変動の捉え
- Authors: Justin Jude, Matthew G. Perich, Lee E. Miller, Matthias H. Hennig
- Abstract要約: ディープニューラルネットワークの自己教師型トレーニングは、セッション間変動の補償に利用できることを示す。
シーケンシャルな自動符号化モデルは、未来まで数日間、完全に見えない記録セッションのために、最先端の動作復号性能を維持することができる。
- 参考スコア(独自算出の注目度): 1.2617078020344619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decoding stimuli or behaviour from recorded neural activity is a common
approach to interrogate brain function in research, and an essential part of
brain-computer and brain-machine interfaces. Reliable decoding even from small
neural populations is possible because high dimensional neural population
activity typically occupies low dimensional manifolds that are discoverable
with suitable latent variable models. Over time however, drifts in activity of
individual neurons and instabilities in neural recording devices can be
substantial, making stable decoding over days and weeks impractical. While this
drift cannot be predicted on an individual neuron level, population level
variations over consecutive recording sessions such as differing sets of
neurons and varying permutations of consistent neurons in recorded data may be
learnable when the underlying manifold is stable over time. Classification of
consistent versus unfamiliar neurons across sessions and accounting for
deviations in the order of consistent recording neurons in recording datasets
over sessions of recordings may then maintain decoding performance. In this
work we show that self-supervised training of a deep neural network can be used
to compensate for this inter-session variability. As a result, a sequential
autoencoding model can maintain state-of-the-art behaviour decoding performance
for completely unseen recording sessions several days into the future. Our
approach only requires a single recording session for training the model, and
is a step towards reliable, recalibration-free brain computer interfaces.
- Abstract(参考訳): 記録された神経活動からの刺激や行動の復号は、研究における脳機能検査の一般的なアプローチであり、脳-コンピュータと脳-機械インターフェースの重要な部分である。
なぜなら、高次元の神経集団活動は通常、適切な潜在変数モデルで発見可能な低次元多様体を占有するためである。
しかし、時間とともに個々のニューロンの活性のドリフトと神経記録装置の不安定性は相当なものとなり、数日から数週間にわたって安定した復号化は現実的ではない。
このドリフトは個々のニューロンレベルでは予測できないが、ニューロンの異なる集合や記録データ内の一貫したニューロンの変動といった連続的な記録セッションにおける個体群レベルの変動は、基礎となる多様体が時間とともに安定しているときに学習可能である。
セッション間の一貫性のあるニューロンと不慣れなニューロンの分類と、セッション間の記録データセットにおける一貫した記録ニューロンの順番のずれを考慮に入れることで、デコード性能を維持することができる。
本研究では,ディープニューラルネットワークの自己教師付き学習を,このセッション間変動の補償に利用できることを示す。
その結果、シーケンシャルなオートエンコーディングモデルでは、何日も経たない記録セッションに対して、最先端の動作復号性能を維持できる。
私たちのアプローチでは、モデルをトレーニングするために単一の記録セッションしか必要とせず、信頼性とリカバリフリーなブレインコンピュータインターフェースへの一歩です。
関連論文リスト
- Learning Time-Invariant Representations for Individual Neurons from
Population Dynamics [29.936569965875375]
本稿では,時間不変表現を個々のニューロンに割り当てる自己教師型学習手法を提案する。
我々は、個人と近隣住民の両方の活動を考慮して表現を学ぶために、動的モデルと神経活動に適合する。
本手法は,マウス大脳皮質神経活動と転写ラベルの多モーダルなデータセット上で実証する。
論文 参考訳(メタデータ) (2023-11-03T22:30:12Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - A Unified, Scalable Framework for Neural Population Decoding [12.052847252465826]
神経活動の集団動態をモデル化するためのトレーニングフレームワークとアーキテクチャを導入する。
我々は,ヒト以外の霊長類7種の大規模データセットに基づいて訓練された大規模マルチセッションモデルを構築した。
論文 参考訳(メタデータ) (2023-10-24T17:58:26Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Robust alignment of cross-session recordings of neural population
activity by behaviour via unsupervised domain adaptation [1.2617078020344619]
本研究では,同じ動物から記録された未確認データから行動関連潜伏動態を推定できるモデルを提案する。
教師なし領域適応と、複数のセッションで訓練された逐次変分オートエンコーダを組み合わせることで、見つからないデータに対して優れた一般化が達成できることを示す。
論文 参考訳(メタデータ) (2022-02-12T22:17:30Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。