論文の概要: Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior
- arxiv url: http://arxiv.org/abs/2603.05612v1
- Date: Thu, 05 Mar 2026 19:11:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.377774
- Title: Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior
- Title(参考訳): 行動-dLDS: 行動に部分的に制約された神経活動に対する分解線形力学系モデル
- Authors: Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. Charles,
- Abstract要約: 動作分解された線形力学系(b-dLDS)を同時に記録したサブシステムから切り離すために提案する。
我々は,b-dLDSが制御されたシミュレーションデータ上での動作と内部計算を分離できることを実証する。
b-dLDSは、ゼブラフィッシュの後脳の大規模記録に我々のモデルを適用することで、さらに数万のニューロンにスケールアップできることを示す。
- 参考スコア(独自算出の注目度): 5.16318599082843
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Brain-wide recordings of large-scale networks of neurons now provide an unprecedented view into how the brain drives behavior. However, brain activity contains both information directly related to behavior as well as the potential for many internal computations. Moreover, observable behavior is executed not only by the brain, but also by the spinal cord and peripheral nervous system. Behavior is a coarse-grained product of neural activity, and we thus take the view that it can be best represented by lower-dimensional latent neural dynamics. Capturing this indirect relationship while disambiguating behavior-generating networks from internal computations running in parallel requires new modeling approaches that can embody the parallel and distributed nature of large-scale neural populations. We thus present behavior-decomposed linear dynamical systems (b-dLDS) to disentangle simultaneously recorded subsystems and identify how the latent neural subsystems relate to behavior. We demonstrate the ability of b-dLDS to decouple behavioral vs. internal computations on controlled, simulated data, showing improvements over a state-of-the-art model that uses behavior to supervise all dynamics based on behavior. We then show that b-dLDS can further scale up to tens of thousands of neurons by applying our model to large-scale recording of a zebrafish hindbrain during the complex positional homeostasis behavior, wherein b-dLDS highlights behavior-related dynamic connectivity networks.
- Abstract(参考訳): 大規模なニューロンのネットワークを脳全体で記録することで、脳の行動がどのように振る舞うかを前例のない視点で見ることができます。
しかし、脳の活動には行動に直接関係する情報と多くの内部計算の可能性の両方が含まれている。
さらに、観察可能な行動は脳だけでなく、脊髄や末梢神経系でも実行される。
行動は神経活動の粗い生成物であり、より低次元の潜伏神経力学で表現できると考える。
並列で実行される内部計算から行動生成ネットワークを曖昧にしながら、この間接的関係をキャプチャするには、大規模ニューラルネットワークの並列性と分散性を具現化する新しいモデリングアプローチが必要である。
そこで我々は, 動作分解線形力学系 (b-dLDS) を, 同時に記録されたサブシステムを切断し, 潜在神経サブシステムが行動にどう関係するかを同定する。
我々は,b-dLDSが制御されたシミュレーションデータ上での挙動計算と内部計算を分離する能力を示す。
次に、b-dLDSは、複雑な位置ホメオスタシス行動中にゼブラフィッシュのヒンドブレインを大規模に記録することで、行動関連動的接続ネットワークを強調することによって、さらに数万のニューロンに拡張可能であることを示す。
関連論文リスト
- BRAID: Input-Driven Nonlinear Dynamical Modeling of Neural-Behavioral Data [3.8233569758620054]
本稿では,非線形ニューラルダイナミクスに基づく振る舞いをモデル化するディープラーニングフレームワークであるBRAIDを紹介する。
本手法は入力の影響から内在性反復性神経集団動態を解き放つ。
本手法は, 計測された感覚刺激をモデルに組み込むことにより, 神経行動データにより正確に適合することを示す。
論文 参考訳(メタデータ) (2025-09-23T04:22:53Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Exploring Behavior-Relevant and Disentangled Neural Dynamics with Generative Diffusion Models [2.600709013150986]
行動の神経基盤を理解することは神経科学の基本的な目標である。
私たちのアプローチは、BeNeDiff'と呼ばれるもので、まずきめ細やかな神経部分空間を識別します。
次に、最先端の生成拡散モデルを使用して、各潜伏因子の神経力学を解釈する行動ビデオを合成する。
論文 参考訳(メタデータ) (2024-10-12T18:28:56Z) - Graph-Based Representation Learning of Neuronal Dynamics and Behavior [2.3859858429583665]
本稿では,時間変動ニューロン接続をモデル化する新しいフレームワークTAVRNNを紹介する。
TAVRNNは、解釈可能な集団レベルの表現を維持しながら、単一単位レベルで潜伏ダイナミクスを学習する。
TAVRNNは,(1)自由行動ラットの電気生理学的データ,(2)到達作業中の霊長類体性感覚皮質記録,(3)仮想ゲーム環境と相互作用するDishBrainプラットフォーム内の生物学的ニューロンの3つのデータセットで検証した。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。