論文の概要: Deep inference of latent dynamics with spatio-temporal super-resolution
using selective backpropagation through time
- arxiv url: http://arxiv.org/abs/2111.00070v1
- Date: Fri, 29 Oct 2021 20:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:11:48.085200
- Title: Deep inference of latent dynamics with spatio-temporal super-resolution
using selective backpropagation through time
- Title(参考訳): 時間的バックプロパゲーションを用いた時空間超解像による潜在ダイナミクスの深い推論
- Authors: Feng Zhu, Andrew R. Sedler, Harrison A. Grier, Nauman Ahad, Mark A.
Davenport, Matthew T. Kaufman, Andrea Giovannucci, Chethan Pandarinath
- Abstract要約: 現代の神経インタフェースは、脳回路内の100万のニューロンの活動をアクセスすることができる。
帯域幅制限はしばしば、より大きな空間サンプリング(より多くのチャンネルやピクセル)と時間サンプリングの頻度の間のトレードオフを生み出す。
ここでは、ニューロン間の関係を利用して、ニューロン時系列における超解像を得ることが可能であることを実証する。
- 参考スコア(独自算出の注目度): 15.648009434801885
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern neural interfaces allow access to the activity of up to a million
neurons within brain circuits. However, bandwidth limits often create a
trade-off between greater spatial sampling (more channels or pixels) and the
temporal frequency of sampling. Here we demonstrate that it is possible to
obtain spatio-temporal super-resolution in neuronal time series by exploiting
relationships among neurons, embedded in latent low-dimensional population
dynamics. Our novel neural network training strategy, selective backpropagation
through time (SBTT), enables learning of deep generative models of latent
dynamics from data in which the set of observed variables changes at each time
step. The resulting models are able to infer activity for missing samples by
combining observations with learned latent dynamics. We test SBTT applied to
sequential autoencoders and demonstrate more efficient and higher-fidelity
characterization of neural population dynamics in electrophysiological and
calcium imaging data. In electrophysiology, SBTT enables accurate inference of
neuronal population dynamics with lower interface bandwidths, providing an
avenue to significant power savings for implanted neuroelectronic interfaces.
In applications to two-photon calcium imaging, SBTT accurately uncovers
high-frequency temporal structure underlying neural population activity,
substantially outperforming the current state-of-the-art. Finally, we
demonstrate that performance could be further improved by using limited,
high-bandwidth sampling to pretrain dynamics models, and then using SBTT to
adapt these models for sparsely-sampled data.
- Abstract(参考訳): 現代の神経インターフェイスは、脳回路内の最大100万のニューロンの活動にアクセスできる。
しかし、帯域幅制限は、より大きな空間サンプリング(より多くのチャンネルやピクセル)とサンプリングの時間周波数の間のトレードオフを生じることが多い。
ここでは,潜在低次元個体群動態に埋め込まれたニューロン間の関係を利用して,ニューロン時系列における時空間的超解像が得られることを示す。
新しいニューラルネットワークトレーニング戦略であるsbtt(elective backpropagation through time)は、観測された変数の集合が各時間ステップで変化するデータから、潜在ダイナミクスの深い生成モデルの学習を可能にする。
得られたモデルは、観測と学習された潜在力学を組み合わせることで、行方不明サンプルの活性を推測することができる。
我々はsbttをシーケンシャルオートエンコーダに適用し,電気生理学的およびカルシウムイメージングデータにおける神経集団動態のより効率的かつ高忠実性を示す。
電気生理学において、SBTTは、低帯域幅のニューロン集団動態の正確な推定を可能にし、移植された神経電子界面に対する重要な省電力への道を提供する。
2光子カルシウムイメージングへの応用において、SBTTは神経集団活動に基づく高周波の時間構造を正確に発見し、現在の最先端を著しく上回る。
最後に,sbttを用いて,sparsely-sampledデータにこれらのモデルを適用することにより,帯域幅の制限されたサンプリングにより,さらに性能が向上することを示す。
関連論文リスト
- Zero-Shot Temporal Resolution Domain Adaptation for Spiking Neural Networks [3.2366933261812076]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたディープニューラルネットワークであり、時間的情報を効率的に抽出する。
SNNモデルパラメータは時間分解能に敏感であり、エッジでのターゲットデータの時間分解能が同じでない場合、大幅な性能低下を引き起こす。
本稿では,ニューロンパラメータを適応させる3つの新しい領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T14:58:51Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - A frugal Spiking Neural Network for unsupervised classification of continuous multivariate temporal data [0.0]
スパイキングニューラルネットワーク(SNN)は神経型であり、進化する膜電位を持つより生物学的に可塑性なニューロンを使用する。
本稿では,連続データにおける多変量時間パターンの完全教師なし識別と分類のために設計されたFragal Single-layer SNNを紹介する。
論文 参考訳(メタデータ) (2024-08-08T08:15:51Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block [4.081968050250324]
スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:14:13Z) - Representation learning for neural population activity with Neural Data
Transformers [3.4376560669160394]
我々は、明示的力学モデルの非リカレントな代替品であるNeural Data Transformer (NDT)を紹介する。
NDTは3.9msの推論を可能にし、リアルタイムアプリケーションのループ時間内では、リカレントベースラインの6倍以上高速である。
論文 参考訳(メタデータ) (2021-08-02T23:36:39Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。