論文の概要: Point process models for sequence detection in high-dimensional neural
spike trains
- arxiv url: http://arxiv.org/abs/2010.04875v1
- Date: Sat, 10 Oct 2020 02:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:54:36.665914
- Title: Point process models for sequence detection in high-dimensional neural
spike trains
- Title(参考訳): 高次元ニューラルスパイク列車のシーケンス検出のための点過程モデル
- Authors: Alex H. Williams, Anthony Degleris, Yixin Wang, Scott W. Linderman
- Abstract要約: 本研究では,個々のスパイクレベルにおける微細なシーケンスを特徴付ける点過程モデルを開発する。
この超スパースなシーケンスイベント表現は、スパイクトレインモデリングの新しい可能性を開く。
- 参考スコア(独自算出の注目度): 29.073129195368235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse sequences of neural spikes are posited to underlie aspects of working
memory, motor production, and learning. Discovering these sequences in an
unsupervised manner is a longstanding problem in statistical neuroscience.
Promising recent work utilized a convolutive nonnegative matrix factorization
model to tackle this challenge. However, this model requires spike times to be
discretized, utilizes a sub-optimal least-squares criterion, and does not
provide uncertainty estimates for model predictions or estimated parameters. We
address each of these shortcomings by developing a point process model that
characterizes fine-scale sequences at the level of individual spikes and
represents sequence occurrences as a small number of marked events in
continuous time. This ultra-sparse representation of sequence events opens new
possibilities for spike train modeling. For example, we introduce learnable
time warping parameters to model sequences of varying duration, which have been
experimentally observed in neural circuits. We demonstrate these advantages on
experimental recordings from songbird higher vocal center and rodent
hippocampus.
- Abstract(参考訳): 神経スパイクのスパースシーケンスは、ワーキングメモリ、モーター生産、学習の側面を裏付けるものとして証明される。
これらの配列を教師なしで発見することは、統計神経科学の長年の問題である。
最近の有望な研究では、この課題に取り組むために畳み込み非負行列分解モデルを利用した。
しかしながら、このモデルはスパイクタイムを離散化し、最小2乗の最適基準を活用し、モデル予測や推定パラメータに対する不確実性推定を提供しない。
個々のスパイクのレベルで微細なシーケンスを特徴付け、連続時間に少数のマークされたイベントとしてシーケンス発生を表現するポイントプロセスモデルを開発することで、これらの欠点をそれぞれ解決します。
この超スパースなシーケンスイベント表現はスパイクトレインモデリングの新しい可能性を開く。
例えば,神経回路で実験的に観測された様々な持続時間のモデルシーケンスに対して,学習可能な時間ゆがみパラメータを導入する。
これらの利点をsongbird higher vocal centerとrodent hippocampusから実験的に記録した。
関連論文リスト
- Finding the DeepDream for Time Series: Activation Maximization for Univariate Time Series [10.388704631887496]
逐次情報解析に最大活性化を適用する手法であるSequence Dreamingを紹介する。
モデル決定プロセスに最も影響を及ぼす時間的ダイナミクスとパターンを可視化する。
論文 参考訳(メタデータ) (2024-08-20T08:09:44Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Time Series Continuous Modeling for Imputation and Forecasting with Implicit Neural Representations [15.797295258800638]
本稿では,実世界のデータでしばしば発生する課題に対処するために,時系列計算と予測のための新しいモデリング手法を提案する。
本手法はシリーズの進化力学の連続時間依存モデルに依存する。
メタラーニングアルゴリズムによって駆動される変調機構は、観測されたタイムウインドウを超えて、見えないサンプルや外挿への適応を可能にする。
論文 参考訳(メタデータ) (2023-06-09T13:20:04Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - DriPP: Driven Point Processes to Model Stimuli Induced Patterns in M/EEG
Signals [62.997667081978825]
我々はDriPPと呼ばれる新しい統計点過程モデルを開発する。
我々は、このモデルのパラメータを推定するために、高速で原理化された予測最大化(EM)アルゴリズムを導出する。
標準MEGデータセットの結果から,我々の手法が事象関連ニューラルレスポンスを明らかにすることが示された。
論文 参考訳(メタデータ) (2021-12-08T13:07:21Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Rescuing neural spike train models from bad MLE [9.655669944739127]
本稿では,スパイクトレインカーネルを用いたニューラル記録とモデル生成スパイクトレインのばらつきを,直接的に最小化することを提案する。
モデルミスマッチを扱う上で重要な機能間のトレードオフを制御できることを示します。
論文 参考訳(メタデータ) (2020-10-23T12:46:12Z) - Variational inference formulation for a model-free simulation of a
dynamical system with unknown parameters by a recurrent neural network [8.616180927172548]
本研究では,事前知識のない未知パラメータを持つ力学系の「モデルフリー」シミュレーションを提案する。
ディープラーニングモデルは,非線形時間行進演算子と未知パラメータの影響を時系列データセットから共同学習することを目的としている。
提案したディープラーニングモデルは,乱数パラメータの次元を正確に同定し,複雑な時系列データの表現を学習することができる。
論文 参考訳(メタデータ) (2020-03-02T20:57:02Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。