論文の概要: Learning Time-Invariant Representations for Individual Neurons from
Population Dynamics
- arxiv url: http://arxiv.org/abs/2311.02258v1
- Date: Fri, 3 Nov 2023 22:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 18:31:26.097744
- Title: Learning Time-Invariant Representations for Individual Neurons from
Population Dynamics
- Title(参考訳): 個体群動態によるニューロンの時間不変表現の学習
- Authors: Lu Mi, Trung Le, Tianxing He, Eli Shlizerman, Uygar S\"umb\"ul
- Abstract要約: 本稿では,時間不変表現を個々のニューロンに割り当てる自己教師型学習手法を提案する。
我々は、個人と近隣住民の両方の活動を考慮して表現を学ぶために、動的モデルと神経活動に適合する。
本手法は,マウス大脳皮質神経活動と転写ラベルの多モーダルなデータセット上で実証する。
- 参考スコア(独自算出の注目度): 29.936569965875375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neurons can display highly variable dynamics. While such variability
presumably supports the wide range of behaviors generated by the organism,
their gene expressions are relatively stable in the adult brain. This suggests
that neuronal activity is a combination of its time-invariant identity and the
inputs the neuron receives from the rest of the circuit. Here, we propose a
self-supervised learning based method to assign time-invariant representations
to individual neurons based on permutation-, and population size-invariant
summary of population recordings. We fit dynamical models to neuronal activity
to learn a representation by considering the activity of both the individual
and the neighboring population. Our self-supervised approach and use of
implicit representations enable robust inference against imperfections such as
partial overlap of neurons across sessions, trial-to-trial variability, and
limited availability of molecular (transcriptomic) labels for downstream
supervised tasks. We demonstrate our method on a public multimodal dataset of
mouse cortical neuronal activity and transcriptomic labels. We report > 35%
improvement in predicting the transcriptomic subclass identity and > 20%
improvement in predicting class identity with respect to the state-of-the-art.
- Abstract(参考訳): ニューロンは、非常に可変なダイナミクスを表示できる。
このような変動性は、おそらく生物が生み出す幅広い行動をサポートするが、その遺伝子発現は成体脳で比較的安定している。
これは神経活動が時間不変のアイデンティティとニューロンが回路の残りの部分から受ける入力の組み合わせであることを示している。
本稿では,個体群記録の順列,個体群サイズ不変性に基づいて,各ニューロンに時間不変表現を割り当てる自己教師付き学習法を提案する。
ニューロン活動に動的モデルを適用し,個体群と隣接個体群の双方の活動を考慮し,表現の学習を行う。
我々の自己教師ありアプローチと暗黙的表現の使用により、セッション間のニューロンの部分的重なり、試行錯誤性、下流教師ありタスクのための分子(転写学)ラベルの制限といった不完全性に対する堅牢な推論が可能となる。
マウス皮質ニューロン活動と転写ラベルのマルチモーダルデータセットを用いて,本手法を実証する。
トランスクリプトミクスサブクラスの予測精度が35%向上し,最先端のクラス識別精度が20%向上した。
関連論文リスト
- SynapsNet: Enhancing Neuronal Population Dynamics Modeling via Learning Functional Connectivity [0.0]
我々は、ニューロン間の機能的相互作用と人口動態を効果的にモデル化する新しいディープラーニングフレームワーク、SynapsNetを紹介した。
共有デコーダは、入力電流、以前の神経活動、ニューロンの埋め込み、行動データを用いて、次のステップで集団活動を予測する。
以上の結果から,SynapsNetの個体群活動予測モデルでは,マウスの皮質活動が従来モデルより常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T22:25:15Z) - Modeling dynamic neural activity by combining naturalistic video stimuli and stimulus-independent latent factors [5.967290675400836]
本稿では,刺激非依存の潜伏因子とともに映像入力を組み込んだ確率論的モデルを提案する。
マウスV1ニューロン反応のトレーニングとテストを行った結果、ビデオのみのモデルよりもログライクな結果が得られた。
その結果,学習した潜伏因子はマウスの行動と強く相関していることがわかった。
論文 参考訳(メタデータ) (2024-10-21T16:01:39Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Capturing cross-session neural population variability through
self-supervised identification of consistent neuron ensembles [1.2617078020344619]
ディープニューラルネットワークの自己教師型トレーニングは、セッション間変動の補償に利用できることを示す。
シーケンシャルな自動符号化モデルは、未来まで数日間、完全に見えない記録セッションのために、最先端の動作復号性能を維持することができる。
論文 参考訳(メタデータ) (2022-05-19T20:00:33Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity [33.06823702945747]
我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T16:39:43Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。