論文の概要: Know Thyself by Knowing Others: Learning Neuron Identity from Population Context
- arxiv url: http://arxiv.org/abs/2512.01199v1
- Date: Mon, 01 Dec 2025 02:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.640494
- Title: Know Thyself by Knowing Others: Learning Neuron Identity from Population Context
- Title(参考訳): 他者を知ることで自己を知る:集団文脈からニューロンのアイデンティティを学習する
- Authors: Vinam Arora, Divyansha Lachi, Ian J. Knight, Mehdi Azabou, Blake Richards, Cole L. Hurwitz, Josh Siegle, Eva L. Dyer,
- Abstract要約: 本稿では,ニューロンレベルの表現学習のための最初の体系的スケーリング分析について述べる。
プレトレーニングで使用する動物数の増加は、下流のパフォーマンスを継続的に向上させることを示す。
結果は、多様で多様なニューラルネットワークが、動物全体にわたって一般化されるニューロンのアイデンティティに関する情報をモデルが回復する様子を強調している。
- 参考スコア(独自算出の注目度): 9.798773806523114
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neurons process information in ways that depend on their cell type, connectivity, and the brain region in which they are embedded. However, inferring these factors from neural activity remains a significant challenge. To build general-purpose representations that allow for resolving information about a neuron's identity, we introduce NuCLR, a self-supervised framework that aims to learn representations of neural activity that allow for differentiating one neuron from the rest. NuCLR brings together views of the same neuron observed at different times and across different stimuli and uses a contrastive objective to pull these representations together. To capture population context without assuming any fixed neuron ordering, we build a spatiotemporal transformer that integrates activity in a permutation-equivariant manner. Across multiple electrophysiology and calcium imaging datasets, a linear decoding evaluation on top of NuCLR representations achieves a new state-of-the-art for both cell type and brain region decoding tasks, and demonstrates strong zero-shot generalization to unseen animals. We present the first systematic scaling analysis for neuron-level representation learning, showing that increasing the number of animals used during pretraining consistently improves downstream performance. The learned representations are also label-efficient, requiring only a small fraction of labeled samples to achieve competitive performance. These results highlight how large, diverse neural datasets enable models to recover information about neuron identity that generalize across animals. Code is available at https://github.com/nerdslab/nuclr.
- Abstract(参考訳): ニューロンは、細胞の種類、接続性、埋め込まれた脳領域に依存する方法で情報を処理します。
しかし、これらの要因を神経活動から推測することは依然として重要な課題である。
ニューロンのアイデンティティに関する情報の解決を可能にする汎用表現を構築するために,神経活動の表現を学習することを目的とした,自律的なフレームワークであるNuCLRを紹介した。
NuCLRは異なる時間と異なる刺激で観察された同じニューロンのビューをまとめ、対照的な目的を使ってこれらの表現をまとめる。
固定されたニューロンの順序を仮定することなく、集団のコンテキストを捉えるために、置換等変法で活動を統合する時空間変換器を構築した。
複数の電気生理学的およびカルシウムイメージングデータセット全体にわたって、NuCLR表現上の線形デコード評価は、細胞型と脳領域の両方のデコードタスクのための新しい最先端技術を実現し、目に見えない動物に強力なゼロショット一般化を示す。
本稿では,ニューロンレベルの表現学習のための最初の体系的スケーリング分析を行い,事前訓練で使用する動物の数の増加は下流のパフォーマンスを継続的に向上させることを示した。
学習された表現もラベル効率が良く、競合性能を達成するためにラベル付きサンプルのごく一部しか必要としない。
これらの結果は、多様で多様なニューラルネットワークが、動物全体にわたって一般化されるニューロンのアイデンティティに関する情報をモデルが回復する過程を浮き彫りにしている。
コードはhttps://github.com/nerdslab/nuclr.comで入手できる。
関連論文リスト
- Neuron Platonic Intrinsic Representation From Dynamics Using Contrastive Learning [4.538151592901714]
我々はNeurPIR(Neuron Platonic Intrinsic Representation)フレームワークを提案する。
対照的な学習を使用し、正の対と同じニューロンのセグメントと、負の対である異なるニューロンのセグメントを持つ。
我々はIzhikevichモデルを用いた神経集団動態データを用いて実験を行った。
論文 参考訳(メタデータ) (2025-02-06T02:22:23Z) - Integration of Calcium Imaging Traces via Deep Generative Modeling [0.0]
スパイク推定アルゴリズムに頼らずに、カルシウムイメージング蛍光トレースから単一ニューロン表現を学習する方法を示す。
このアプローチは、バッチ効果を緩和しながら生物学的変動を保ちながら、最先端モデルよりも優れていることが判明した。
このフレームワークは、シングルニューロンダイナミクスの堅牢な可視化、クラスタリング、解釈を可能にする。
論文 参考訳(メタデータ) (2025-01-24T16:33:52Z) - Neuron to Graph: Interpreting Language Model Neurons at Scale [8.32093320910416]
本稿では,大規模言語モデル内の多数のニューロンにまたがる解釈可能性手法のスケールアップを目的とした,新しい自動化手法を提案する。
我々は、トレーニングしたデータセットからニューロンの振る舞いを自動的に抽出し、解釈可能なグラフに変換する革新的なツールであるNeuron to Graph(N2G)を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:44:33Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity [33.06823702945747]
我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T16:39:43Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。