論文の概要: Langevin Flows for Modeling Neural Latent Dynamics
- arxiv url: http://arxiv.org/abs/2507.11531v1
- Date: Tue, 15 Jul 2025 17:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.211922
- Title: Langevin Flows for Modeling Neural Latent Dynamics
- Title(参考訳): ニューラルラテントダイナミクスのモデリングのためのランゲヴィン流れ
- Authors: Yue Song, T. Anderson Keller, Yisong Yue, Pietro Perona, Max Welling,
- Abstract要約: 逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
- 参考スコア(独自算出の注目度): 81.81271685018284
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural populations exhibit latent dynamical structures that drive time-evolving spiking activities, motivating the search for models that capture both intrinsic network dynamics and external unobserved influences. In this work, we introduce LangevinFlow, a sequential Variational Auto-Encoder where the time evolution of latent variables is governed by the underdamped Langevin equation. Our approach incorporates physical priors -- such as inertia, damping, a learned potential function, and stochastic forces -- to represent both autonomous and non-autonomous processes in neural systems. Crucially, the potential function is parameterized as a network of locally coupled oscillators, biasing the model toward oscillatory and flow-like behaviors observed in biological neural populations. Our model features a recurrent encoder, a one-layer Transformer decoder, and Langevin dynamics in the latent space. Empirically, our method outperforms state-of-the-art baselines on synthetic neural populations generated by a Lorenz attractor, closely matching ground-truth firing rates. On the Neural Latents Benchmark (NLB), the model achieves superior held-out neuron likelihoods (bits per spike) and forward prediction accuracy across four challenging datasets. It also matches or surpasses alternative methods in decoding behavioral metrics such as hand velocity. Overall, this work introduces a flexible, physics-inspired, high-performing framework for modeling complex neural population dynamics and their unobserved influences.
- Abstract(参考訳): 神経集団は、時間的に進化するスパイク活動を駆動する潜在的な動的構造を示し、本質的なネットワーク力学と外的未観測の影響の両方を捉えるモデル探索を動機付けている。
本稿では,潜伏変数の時間的進化をアンダーダム化したランゲヴィン方程式で制御する逐次変分自動エンコーダであるランゲヴィンフローを紹介する。
我々のアプローチには、慣性、減衰、学習されたポテンシャル関数、確率的な力など、物理的に先入観を取り入れ、神経系における自律的および非自律的なプロセスの両方を表現する。
重要なことに、ポテンシャル関数は局所的に結合された振動子のネットワークとしてパラメータ化され、生物の神経集団で観察される振動や流れのような行動に対してモデルに偏りが生じる。
本モデルでは,リカレントエンコーダ,1層トランスフォーマーデコーダ,ラテント空間におけるランゲヴィンダイナミクスを特徴とする。
実験的な方法では,ロレンツ誘引器が生み出す合成ニューラル人口に対する最先端のベースラインを上回り,接地トルース発火速度と密接に一致している。
Neural Latents Benchmark (NLB) では、このモデルは、4つの挑戦的なデータセットにおいて、より優れた保留されたニューロンの確率(スパイク当たりのビット)と前方予測精度を達成する。
また、手動速度などの行動メトリクスの復号化において、代替手法と一致したり、超えたりします。
全体として、この研究は、複雑な神経集団力学とその観測されていない影響をモデル化するための、柔軟で物理学に着想を得たハイパフォーマンスなフレームワークを導入している。
関連論文リスト
- NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [68.89389652724378]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、実際の実験データに基づいて検証された最初のスケールアップされたディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Autaptic Synaptic Circuit Enhances Spatio-temporal Predictive Learning of Spiking Neural Networks [23.613277062707844]
Spiking Neural Networks (SNNs) は、生物学的ニューロンで見られる統合ファイアリーク機構をエミュレートする。
既存のSNNは、主にIntegrate-and-Fire Leaky(LIF)モデルに依存している。
本稿では,S-patioTemporal Circuit (STC) モデルを提案する。
論文 参考訳(メタデータ) (2024-06-01T11:17:27Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Expressive architectures enhance interpretability of dynamics-based
neural population models [2.294014185517203]
シミュレーションされたニューラルネットワークから潜在カオスを引き付ける際のシーケンシャルオートエンコーダ(SAE)の性能を評価する。
広帯域再帰型ニューラルネットワーク(RNN)を用いたSAEでは,真の潜在状態次元での正確な発射速度を推定できないことがわかった。
論文 参考訳(メタデータ) (2022-12-07T16:44:26Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。