論文の概要: NLP4Neuro: Sequence-to-sequence learning for neural population decoding
- arxiv url: http://arxiv.org/abs/2507.02264v1
- Date: Thu, 03 Jul 2025 03:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.485358
- Title: NLP4Neuro: Sequence-to-sequence learning for neural population decoding
- Title(参考訳): NLP4Neuro:ニューラル集団復号のためのシーケンス・ツー・シーケンス学習
- Authors: Jacob J. Morra, Kaitlyn E. Fouke, Kexin Hang, Zichen He, Owen Traubert, Timothy W. Dunn, Eva A. Naumann,
- Abstract要約: 動物の行動が神経活動からどのように起こるかを説明することは神経科学の基礎的な目標である。
現代の大規模言語モデル(LLM)のバックボーンであるトランスフォーマーは、より小さな神経集団からの神経復号のための強力なツールとなっている。
- 参考スコア(独自算出の注目度): 0.9086712846902969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Delineating how animal behavior arises from neural activity is a foundational goal of neuroscience. However, as the computations underlying behavior unfold in networks of thousands of individual neurons across the entire brain, this presents challenges for investigating neural roles and computational mechanisms in large, densely wired mammalian brains during behavior. Transformers, the backbones of modern large language models (LLMs), have become powerful tools for neural decoding from smaller neural populations. These modern LLMs have benefited from extensive pre-training, and their sequence-to-sequence learning has been shown to generalize to novel tasks and data modalities, which may also confer advantages for neural decoding from larger, brain-wide activity recordings. Here, we present a systematic evaluation of off-the-shelf LLMs to decode behavior from brain-wide populations, termed NLP4Neuro, which we used to test LLMs on simultaneous calcium imaging and behavior recordings in larval zebrafish exposed to visual motion stimuli. Through NLP4Neuro, we found that LLMs become better at neural decoding when they use pre-trained weights learned from textual natural language data. Moreover, we found that a recent mixture-of-experts LLM, DeepSeek Coder-7b, significantly improved behavioral decoding accuracy, predicted tail movements over long timescales, and provided anatomically consistent highly interpretable readouts of neuron salience. NLP4Neuro demonstrates that LLMs are highly capable of informing brain-wide neural circuit dissection.
- Abstract(参考訳): 動物の行動が神経活動からどのように起こるかを説明することは神経科学の基礎的な目標である。
しかし、基礎となる行動の計算は、脳全体にわたる何千もの個々のニューロンのネットワークに展開されるため、行動中の大型で密度の高い哺乳類の脳において、神経の役割と計算機構を研究する上での課題が提示される。
現代の大規模言語モデル(LLM)のバックボーンであるトランスフォーマーは、より小さな神経集団からの神経復号のための強力なツールとなっている。
これらの現代のLSMは、広範な事前学習の恩恵を受けており、そのシーケンス・ツー・シーケンス・ラーニングは、新しいタスクやデータモダリティに一般化することが示されている。
そこで本研究では, 幼魚の視覚運動刺激に曝露された行動記録と同時カルシウムイメージングに用いた, NLP4Neuro と呼ばれる脳全集団からの行動のデコードを行うために, 市販のLLMを体系的に評価した。
NLP4Neuroを通じて、テキスト自然言語データから学習したトレーニング済み重みを使用すると、LLMが神経復号化に長けていることが判明した。
さらに,近年のLLMであるDeepSeek Coder-7bは,行動復号精度を大幅に向上し,長期にわたる尾の動きを予測し,解剖学的に高度に解釈可能なニューロンサリエンスの読み出しを提供した。
NLP4Neuroは、LLMが脳全域の神経回路切断を誘導する能力が高いことを示した。
関連論文リスト
- Neural Encoding and Decoding at Scale [42.33285735011587]
NEDS(Neural and Decoding at Scale)を実現するマルチモーダルマルチタスクモデルを提案する。
私たちのアプローチの中心は、神経、行動、内部モダリティ、および相互モダリティマスキングを交互に交互に行う、新しいマルチタスクマスキング戦略です。
NEDSは、複数動物データに基づいて事前訓練された後、新しい動物に微調整された際に、符号化と復号の両方の最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-04-11T02:06:20Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。