論文の概要: Temporal Basis Function Models for Closed-Loop Neural Stimulation
- arxiv url: http://arxiv.org/abs/2507.15274v1
- Date: Mon, 21 Jul 2025 06:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.280334
- Title: Temporal Basis Function Models for Closed-Loop Neural Stimulation
- Title(参考訳): 閉ループ神経刺激のための時間基底関数モデル
- Authors: Matthew J. Bryan, Felix Schwock, Azadeh Yazdan-Shahmorad, Rajesh P N Rao,
- Abstract要約: クローズドループ神経刺激はパーキンソン病(PD)のような神経疾患に対する新しい治療法を提供する
人工知能(AI)技術が個々の患者に対してクローズドループ刺激を調整できるのか、あるいは新たな治療法を特定できるのかはまだ明らかになっていない。
これらの問題に対処するための時間的基底関数モデル(TBFM)を提案する。
- 参考スコア(独自算出の注目度): 1.9686770963118383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Closed-loop neural stimulation provides novel therapies for neurological diseases such as Parkinson's disease (PD), but it is not yet clear whether artificial intelligence (AI) techniques can tailor closed-loop stimulation to individual patients or identify new therapies. Progress requires us to address a number of translational issues, including sample efficiency, training time, and minimizing loop latency such that stimulation may be shaped in response to changing brain activity. We propose temporal basis function models (TBFMs) to address these difficulties, and explore this approach in the context of excitatory optogenetic stimulation. We demonstrate the ability of TBF models to provide a single-trial, spatiotemporal forward prediction of the effect of optogenetic stimulation on local field potentials (LFPs) measured in two non-human primates. We further use simulations to demonstrate the use of TBF models for closed-loop stimulation, driving neural activity towards target patterns. The simplicity of TBF models allow them to be sample efficient, rapid to train (2-4min), and low latency (0.2ms) on desktop CPUs. We demonstrate the model on 40 sessions of previously published excitatory optogenetic stimulation data. For each session, the model required 15-20min of data collection to successfully model the remainder of the session. It achieved a prediction accuracy comparable to a baseline nonlinear dynamical systems model that requires hours to train, and superior accuracy to a linear state-space model. In our simulations, it also successfully allowed a closed-loop stimulator to control a neural circuit. Our approach begins to bridge the translational gap between complex AI-based approaches to modeling dynamical systems and the vision of using such forward prediction models to develop novel, clinically useful closed-loop stimulation protocols.
- Abstract(参考訳): クローズドループ神経刺激は、パーキンソン病(PD)のような神経疾患に対する新しい治療法を提供するが、人工知能(AI)技術が個々の患者にクローズドループ刺激を調整できるのか、新しい治療法を特定できるのかはまだ明らかになっていない。
進歩には、サンプル効率、トレーニング時間、脳活動の変化に応じて刺激が形成されるようなループ遅延の最小化など、多くの翻訳問題に対処する必要がある。
本稿では,これらの課題に対処するため,時間的基底関数モデル(TBFM)を提案する。
2つの霊長類で測定された局所野電位(LFP)に対するオプトジェネティック刺激の効果を, 単回的, 時空間的に予測できるTBFモデルの有効性を実証した。
さらにシミュレーションを用いて、閉鎖ループ刺激に対するTBFモデルの使用を実証し、標的パターンに向けて神経活動を駆動する。
TBFモデルの単純さにより、デスクトップCPU上でのサンプリング効率、高速なトレーニング(2-4min)、低レイテンシ(0.2ms)が可能である。
これまでに公表された興奮性光発生刺激データの40セッションにおいて,本モデルを実証した。
各セッションについて、セッションの残りの部分をうまくモデル化するために15~20分のデータ収集が必要だった。
トレーニングに数時間を要するベースライン非線形力学系モデルに匹敵する精度を達成し、線形状態空間モデルよりも優れた精度を達成した。
シミュレーションでは、クローズドループ刺激器が神経回路を制御できるようになった。
我々のアプローチは、力学系をモデル化するための複雑なAIベースのアプローチと、そのような前方予測モデルを用いて、新規で臨床的に有用なクローズループ刺激プロトコルを開発するビジョンとの翻訳ギャップを橋渡しすることから始まります。
関連論文リスト
- Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - BLEND: Behavior-guided Neural Population Dynamics Modeling via Privileged Knowledge Distillation [6.3559178227943764]
本稿では,特権的知識蒸留による行動誘導型ニューラル人口動態モデリングフレームワークBLENDを提案する。
特権情報として行動を考えることにより、行動観察(私的特徴)と神経活動(正規特徴)の両方を入力として扱う教師モデルを訓練する。
学生モデルは神経活動のみを用いて蒸留される。
論文 参考訳(メタデータ) (2024-10-02T12:45:59Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain Data [3.46029409929709]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - DriPP: Driven Point Processes to Model Stimuli Induced Patterns in M/EEG
Signals [62.997667081978825]
我々はDriPPと呼ばれる新しい統計点過程モデルを開発する。
我々は、このモデルのパラメータを推定するために、高速で原理化された予測最大化(EM)アルゴリズムを導出する。
標準MEGデータセットの結果から,我々の手法が事象関連ニューラルレスポンスを明らかにすることが示された。
論文 参考訳(メタデータ) (2021-12-08T13:07:21Z) - Deep inference of latent dynamics with spatio-temporal super-resolution
using selective backpropagation through time [15.648009434801885]
現代の神経インタフェースは、脳回路内の100万のニューロンの活動をアクセスすることができる。
帯域幅制限はしばしば、より大きな空間サンプリング(より多くのチャンネルやピクセル)と時間サンプリングの頻度の間のトレードオフを生み出す。
ここでは、ニューロン間の関係を利用して、ニューロン時系列における超解像を得ることが可能であることを実証する。
論文 参考訳(メタデータ) (2021-10-29T20:18:29Z) - Bubblewrap: Online tiling and real-time flow prediction on neural
manifolds [2.624902795082451]
本稿では, 高速で安定な次元減少と, 結果のニューラル多様体のソフトタイリングを結合する手法を提案する。
得られたモデルはキロヘルツのデータレートでトレーニングでき、数分で神経力学の正確な近似を生成し、ミリ秒以下の時間スケールで予測を生成する。
論文 参考訳(メタデータ) (2021-08-31T16:01:45Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。