論文の概要: Disentangling Shared and Private Neural Dynamics with SPIRE: A Latent Modeling Framework for Deep Brain Stimulation
- arxiv url: http://arxiv.org/abs/2510.25023v1
- Date: Tue, 28 Oct 2025 22:45:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.816564
- Title: Disentangling Shared and Private Neural Dynamics with SPIRE: A Latent Modeling Framework for Deep Brain Stimulation
- Title(参考訳): 深部脳刺激のための潜在モデリングフレームワークSPIREによるディペンタングリングとプライベートニューラルダイナミクス
- Authors: Rahil Soroushmojdehi, Sina Javadzadeh, Mehrnaz Asadi, Terence D. Sanger,
- Abstract要約: SPIREはディープマルチエンコーダオートエンコーダで、レコードを共有およびプライベート潜在サブスペースに分解する。
地域間構造を堅牢に復元し、外部がどのように再編成するかを明らかにする。
頭蓋内深部脳刺激(DBS)記録に応用される。
- 参考スコア(独自算出の注目度): 0.1259953341639576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disentangling shared network-level dynamics from region-specific activity is a central challenge in modeling multi-region neural data. We introduce SPIRE (Shared-Private Inter-Regional Encoder), a deep multi-encoder autoencoder that factorizes recordings into shared and private latent subspaces with novel alignment and disentanglement losses. Trained solely on baseline data, SPIRE robustly recovers cross-regional structure and reveals how external perturbations reorganize it. On synthetic benchmarks with ground-truth latents, SPIRE outperforms classical probabilistic models under nonlinear distortions and temporal misalignments. Applied to intracranial deep brain stimulation (DBS) recordings, SPIRE shows that shared latents reliably encode stimulation-specific signatures that generalize across sites and frequencies. These results establish SPIRE as a practical, reproducible tool for analyzing multi-region neural dynamics under stimulation.
- Abstract(参考訳): リージョン固有のアクティビティから共有ネットワークレベルのダイナミクスを分離することは、マルチリージョンニューラルネットワークのモデリングにおける中心的な課題である。
SPIRE(Shared-Private Inter-Regional Encoder)は、記録を新しいアライメントとアンタングル化損失を伴う共有およびプライベートな潜在部分空間に分解するディープマルチエンコーダオートエンコーダである。
ベースラインデータのみに基づいてトレーニングされたSPIREは、クロスリージョン構造を堅牢に回復し、外部の摂動がどのように再編成されるかを明らかにする。
SPIREは、接地構造潜伏剤を用いた合成ベンチマークにおいて、非線形歪みと時間的不整合の下で古典的確率論的モデルより優れる。
頭蓋内深部脳刺激(DBS)記録に応用したSPIREは、共有潜伏剤が部位や周波数をまたいで一般化する刺激特異的なシグネチャを確実にエンコードしていることを示している。
これらの結果から、SPIREは刺激下での多領域神経力学を解析するための実用的で再現可能なツールとして確立されている。
関連論文リスト
- Coupled Transformer Autoencoder for Disentangling Multi-Region Neural Latent Dynamics [8.294287754474894]
複数の脳領域にまたがる何千ものニューロンからの同時記録は、各領域で共有される活動と、各領域に固有のダイナミクスの豊富な混合を示す。
我々は,結合トランスフォーマーオートエンコーダ (CTAE) を導入し,(i) 定常的,非線形的,および(ii) 共有と地域固有の構造を単一フレームワークで分離するシーケンスモデルを提案する。
CTAEはトランスフォーマーエンコーダとデコーダを使用して、長距離ニューラルダイナミクスをキャプチャし、各領域の潜在空間を共有およびプライベートサブスペースに明示的に分割する。
論文 参考訳(メタデータ) (2025-10-22T22:47:15Z) - Training Deep Normalization-Free Spiking Neural Networks with Lateral Inhibition [52.59263087086756]
深層ニューラルネットワーク(SNN)のトレーニングは、バッチ正規化のような明示的な正規化スキームに依存している。
本研究では,皮質回路にインスパイアされた側方抑制を取り入れた正規化自由学習フレームワークを提案する。
本稿では,生物リアリズムを持つ深層SNNの安定的学習を可能にするとともに,明示的な正規化に頼らずに競争性能を達成できることを述べる。
論文 参考訳(メタデータ) (2025-09-27T11:11:30Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Towards Unified Neural Decoding with Brain Functional Network Modeling [34.13766828046489]
本稿では,ニューラルデコードフレームワークMIBRAINについて述べる。
MIBRAINは、複数の個人にまたがる頭蓋内神経生理学的記録を統合することで、機能的脳ネットワークモデルを構築する。
我々のフレームワークは、個人間で堅牢なニューラルデコーディングの道を開き、実践的な臨床応用のための洞察を提供する。
論文 参考訳(メタデータ) (2025-05-30T12:10:37Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Expressive architectures enhance interpretability of dynamics-based
neural population models [2.294014185517203]
シミュレーションされたニューラルネットワークから潜在カオスを引き付ける際のシーケンシャルオートエンコーダ(SAE)の性能を評価する。
広帯域再帰型ニューラルネットワーク(RNN)を用いたSAEでは,真の潜在状態次元での正確な発射速度を推定できないことがわかった。
論文 参考訳(メタデータ) (2022-12-07T16:44:26Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。