論文の概要: JEDI: Jointly Embedded Inference of Neural Dynamics
- arxiv url: http://arxiv.org/abs/2603.10489v1
- Date: Wed, 11 Mar 2026 07:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.828238
- Title: JEDI: Jointly Embedded Inference of Neural Dynamics
- Title(参考訳): JEDI: ニューラルネットワークの組込み推論
- Authors: Anirudh Jamkhandi, Ali Korojy, Olivier Codol, Guillaume Lajoie, Matthew G. Perich,
- Abstract要約: タスクとコンテキストをまたいだニューラルダイナミクスをキャプチャする階層モデルであるJEDIを紹介する。
シミュレーションされたRNNデータセットを用いて、JEDIが堅牢で一般化可能な条件固有の埋め込みを正確に学習できることを実証する。
我々の研究は、文脈埋め込みと繰り返し重みの合同学習が、記録のみからの脳のダイナミクスのスケーラブルで一般化可能な推論を提供することを示している。
- 参考スコア(独自算出の注目度): 12.034164909682366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animal brains flexibly and efficiently achieve many behavioral tasks with a single neural network. A core goal in modern neuroscience is to map the mechanisms of the brain's flexibility onto the dynamics underlying neural populations. However, identifying task-specific dynamical rules from limited, noisy, and high-dimensional experimental neural recordings remains a major challenge, as experimental data often provide only partial access to brain states and dynamical mechanisms. While recurrent neural networks (RNNs) directly constrained neural data have been effective in inferring underlying dynamical mechanisms, they are typically limited to single-task domains and struggle to generalize across behavioral conditions. Here, we introduce JEDI, a hierarchical model that captures neural dynamics across tasks and contexts by learning a shared embedding space over RNN weights. This model recapitulates individual samples of neural dynamics while scaling to arbitrarily large and complex datasets, uncovering shared structure across conditions in a single, unified model. Using simulated RNN datasets, we demonstrate that JEDI accurately learns robust, generalizable, condition-specific embeddings. By reverse-engineering the weights learned by JEDI, we show that it recovers ground truth fixed point structures and unveils key features of the underlying neural dynamics in the eigenspectra. Finally, we apply JEDI to motor cortex recordings during monkey reaching to extract mechanistic insight into the neural dynamics of motor control. Our work shows that joint learning of contextual embeddings and recurrent weights provides scalable and generalizable inference of brain dynamics from recordings alone.
- Abstract(参考訳): 動物脳は、単一のニューラルネットワークで多くの行動タスクを柔軟かつ効率的に達成する。
現代の神経科学のコアゴールは、脳の柔軟性のメカニズムを、基礎となる神経集団のダイナミックスにマッピングすることである。
しかしながら、タスク固有のダイナミックなルールを、限られたノイズ、高次元の実験的なニューラル記録から特定することは、実験データが脳の状態や動的メカニズムへの部分的アクセスのみを提供するため、大きな課題である。
リカレントニューラルネットワーク(RNN)を直接拘束されたニューラルネットワークは、基礎となる動的メカニズムを推測するのに有効であるが、通常はシングルタスクドメインに限られ、行動条件をまたいだ一般化に苦慮している。
本稿では、RNN重みによる共有埋め込み空間を学習することにより、タスクやコンテキスト間のニューラルダイナミクスをキャプチャする階層モデルであるJEDIを紹介する。
このモデルは、任意の大きさの複雑なデータセットにスケーリングしながら、ニューラルネットワークの個々のサンプルを再カプセル化し、単一の統一モデルで条件をまたいだ共有構造を明らかにする。
シミュレーションされたRNNデータセットを用いて、JEDIが堅牢で一般化可能な条件固有の埋め込みを正確に学習できることを実証する。
JEDIが学んだ重みを逆エンジニアリングすることで、基底の真理固定点構造を復元し、固有スペクトルにおける基礎となる神経力学の重要な特徴を明らかにする。
最後に、サル到達時の運動野記録にJEDIを適用し、運動制御の神経力学に関する力学的知見を抽出する。
我々の研究は、文脈埋め込みと繰り返し重みの合同学習が、記録のみからの脳のダイナミクスのスケーラブルで一般化可能な推論を提供することを示している。
関連論文リスト
- NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [63.592664795493725]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、その一般化を実際の実験データで検証する最初の大規模ディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Meta-Dynamical State Space Models for Integrative Neural Data Analysis [8.625491800829224]
環境間の共有構造を学習することは、ニューラルネットワークの迅速な学習と適応的な振る舞いを促進する。
ニューラル記録から潜伏ダイナミクスを学習するのと同様の作業中に、ニューラルアクティビティの共有構造を利用する作業は限られている。
本稿では,訓練動物のタスク関連神経活動から,この解空間をメタラーニングするための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T19:35:49Z) - Graph-Based Representation Learning of Neuronal Dynamics and Behavior [2.3859858429583665]
本稿では,時間変動ニューロン接続をモデル化する新しいフレームワークTAVRNNを紹介する。
TAVRNNは、解釈可能な集団レベルの表現を維持しながら、単一単位レベルで潜伏ダイナミクスを学習する。
TAVRNNは,(1)自由行動ラットの電気生理学的データ,(2)到達作業中の霊長類体性感覚皮質記録,(3)仮想ゲーム環境と相互作用するDishBrainプラットフォーム内の生物学的ニューロンの3つのデータセットで検証した。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Expressive architectures enhance interpretability of dynamics-based
neural population models [2.294014185517203]
シミュレーションされたニューラルネットワークから潜在カオスを引き付ける際のシーケンシャルオートエンコーダ(SAE)の性能を評価する。
広帯域再帰型ニューラルネットワーク(RNN)を用いたSAEでは,真の潜在状態次元での正確な発射速度を推定できないことがわかった。
論文 参考訳(メタデータ) (2022-12-07T16:44:26Z) - Ranking of Communities in Multiplex Spatiotemporal Models of Brain
Dynamics [0.0]
隠れマルコフグラフモデル(HMs)と呼ぶ多重脳状態グラフモデルとして、ニューラルHMMの解釈を提案する。
この解釈により、ネットワーク分析技術の完全なレパートリーを使用して、動的脳活動を分析することができる。
ランダムウォークに基づく手法を用いて,脳領域の重要なコミュニティを決定するための新しいツールを開発した。
論文 参考訳(メタデータ) (2022-03-17T12:14:09Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。