論文の概要: Scalable inference of functional neural connectivity at submillisecond timescales
- arxiv url: http://arxiv.org/abs/2510.20966v1
- Date: Thu, 23 Oct 2025 19:53:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.308137
- Title: Scalable inference of functional neural connectivity at submillisecond timescales
- Title(参考訳): 数ミリ秒以下の時間スケールにおける機能的神経接続のスケーラブル推論
- Authors: Arina Medvedeva, Edoardo Balzani, Alex H Williams, Stephen L Keeley,
- Abstract要約: Poisson Generalized Linear Model (GLM)は、ニューラルスパイクトレインデータを分析するツールである。
標準実装では、スパイクタイムをバイナリカウントデータに離散化し、時間分解能とスケーラビリティを制限している。
ここではモンテカルロ法(MC)法と近似法(PA)をこれらのモデルの連続的時間的類似に対して開発し,それらの離散的時間的類似よりも有利であることを示す。
- 参考スコア(独自算出の注目度): 5.7463683981235185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Poisson Generalized Linear Model (GLM) is a foundational tool for analyzing neural spike train data. However, standard implementations rely on discretizing spike times into binned count data, limiting temporal resolution and scalability. Here, we develop Monte Carlo (MC) methods and polynomial approximations (PA) to the continuous-time analog of these models, and show them to be advantageous over their discrete-time counterparts. Further, we propose using a set of exponentially scaled Laguerre polynomials as an orthogonal temporal basis, which improves filter identification and yields closed-form integral solutions under the polynomial approximation. Applied to both synthetic and real spike-time data from rodent hippocampus, our methods demonstrate superior accuracy and scalability compared to traditional binned GLMs, enabling functional connectivity inference in large-scale neural recordings that are temporally precise on the order of synaptic dynamical timescales and in agreement with known anatomical properties of hippocampal subregions. We provide open-source implementations of both MC and PA estimators, optimized for GPU acceleration, to facilitate adoption in the neuroscience community.
- Abstract(参考訳): Poisson Generalized Linear Model (GLM)は、ニューラルスパイクトレインデータを分析するための基礎的なツールである。
しかし、標準的な実装では、スパイクタイムを双有数データに離散化し、時間分解能とスケーラビリティを制限している。
ここでは、これらのモデルの連続時間アナログに対してモンテカルロ法と多項式近似(PA)を開発し、それらの離散時間アナログよりも有利であることを示す。
さらに,指数関数的にスケールしたラゲール多項式の集合を直交時間基底として用いて,フィルタの同定を改善し,多項式近似の下で閉形式積分解を求める。
本手法は, 海馬の合成および実スパイク時間データに適用し, 従来の海馬GLMよりも精度とスケーラビリティが優れており, 海馬サブリージョンの解剖学的特性に適合し, シナプス動的時間スケールの順序で時間的に正確である大規模ニューラル記録における機能的接続推定が可能であった。
我々は、GPUアクセラレーションに最適化されたMCおよびPA推定器のオープンソース実装を提供し、神経科学コミュニティにおける採用を促進する。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - P-SpikeSSM: Harnessing Probabilistic Spiking State Space Models for Long-Range Dependency Tasks [1.9775291915550175]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる計算効率が高く生物学的に妥当な代替品として提案されている。
長距離依存タスクのためのスケーラブルな確率的スパイク学習フレームワークを開発した。
我々のモデルは、様々な長距離依存タスクにまたがるSNNモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T04:23:11Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - HiPPO: Recurrent Memory with Optimal Polynomial Projections [93.3537706398653]
本稿では,連続信号と離散時系列をベースに投影してオンライン圧縮するための一般フレームワーク(HiPPO)を提案する。
過去の各時間ステップの重要性を示す尺度が与えられた場合、HiPPOは自然なオンライン関数近似問題に対する最適解を生成する。
このフォーマルなフレームワークは、すべての履歴を記憶するために時間をかけてスケールする新しいメモリ更新メカニズム(HiPPO-LegS)を提供する。
論文 参考訳(メタデータ) (2020-08-17T23:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。