論文の概要: Generalizable, real-time neural decoding with hybrid state-space models
- arxiv url: http://arxiv.org/abs/2506.05320v1
- Date: Thu, 05 Jun 2025 17:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.887309
- Title: Generalizable, real-time neural decoding with hybrid state-space models
- Title(参考訳): ハイブリッド状態空間モデルによる一般化可能なリアルタイムニューラルデコード
- Authors: Avery Hee-Woon Ryoo, Nanda H. Krishna, Ximeng Mao, Mehdi Azabou, Eva L. Dyer, Matthew G. Perich, Guillaume Lajoie,
- Abstract要約: 本稿では、クロスアテンションモジュールによる個別スパイクトークン化と、再帰状態空間モデル(SSM)のバックボーンを組み合わせた、新しいハイブリッドアーキテクチャPOSSMを提案する。
サル運動タスクの皮質内復号におけるPOSSMの復号性能と推論速度を評価し,臨床応用に拡張することを示す。
これらすべてのタスクにおいて、POSSMは、最先端のトランスフォーマーに匹敵する復号精度を推論コストのごく一部で達成している。
- 参考スコア(独自算出の注目度): 12.37704585793711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time decoding of neural activity is central to neuroscience and neurotechnology applications, from closed-loop experiments to brain-computer interfaces, where models are subject to strict latency constraints. Traditional methods, including simple recurrent neural networks, are fast and lightweight but often struggle to generalize to unseen data. In contrast, recent Transformer-based approaches leverage large-scale pretraining for strong generalization performance, but typically have much larger computational requirements and are not always suitable for low-resource or real-time settings. To address these shortcomings, we present POSSM, a novel hybrid architecture that combines individual spike tokenization via a cross-attention module with a recurrent state-space model (SSM) backbone to enable (1) fast and causal online prediction on neural activity and (2) efficient generalization to new sessions, individuals, and tasks through multi-dataset pretraining. We evaluate POSSM's decoding performance and inference speed on intracortical decoding of monkey motor tasks, and show that it extends to clinical applications, namely handwriting and speech decoding in human subjects. Notably, we demonstrate that pretraining on monkey motor-cortical recordings improves decoding performance on the human handwriting task, highlighting the exciting potential for cross-species transfer. In all of these tasks, we find that POSSM achieves decoding accuracy comparable to state-of-the-art Transformers, at a fraction of the inference cost (up to 9x faster on GPU). These results suggest that hybrid SSMs are a promising approach to bridging the gap between accuracy, inference speed, and generalization when training neural decoders for real-time, closed-loop applications.
- Abstract(参考訳): ニューラルネットワークのリアルタイムデコーディングは、クローズドループ実験から脳-コンピュータインターフェースまで、神経科学やニューロテクノロジーの応用の中心である。
単純なリカレントニューラルネットワークを含む従来の手法は、高速で軽量だが、目に見えないデータへの一般化に苦慮することが多い。
対照的に、Transformerベースの最近のアプローチでは、大規模な事前学習を強力な一般化性能に活用しているが、典型的にはより大きな計算要件を持ち、低リソースやリアルタイム設定には必ずしも適していない。
これらの欠点に対処するため、POSSMは、クロスアテンションモジュールによる個別スパイクトークン化と、(1)ニューラルアクティビティに関する高速かつ因果的なオンライン予測を可能にするための再帰状態空間モデル(SSM)バックボーンを組み合わせた、新しいハイブリッドアーキテクチャである。
サル運動タスクの皮質内復号におけるPOSSMの復号性能と推論速度を評価し,人体における筆跡や音声復号といった臨床応用にまで拡張することを示す。
特に、サルの運動皮質記録の事前訓練は、人間の手書き作業における復号性能を向上させることを示し、種間移動のエキサイティングな可能性を強調した。
これらすべてのタスクにおいて、POSSMは最先端のトランスフォーマーに匹敵する復号精度を推論コスト(GPUでは最大9倍高速)で達成している。
これらの結果から,ハイブリッドSSMは,リアルタイム閉ループアプリケーションのためのニューラルデコーダのトレーニングにおいて,精度,推論速度,一般化のギャップを埋める上で有望なアプローチであることが示唆された。
関連論文リスト
- Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Neuromorphic Computing with AER using Time-to-Event-Margin Propagation [7.730429080477441]
我々は、AERプロトコルに固有の遅延、トリガー、ソートといった因果的時間的プリミティブが、スケーラブルなニューロモルフィックコンピューティングにどのように活用できるかを示す。
提案したTEMPベースのAERアーキテクチャは、完全に非同期であり、メモリとコンピューティングの相互接続遅延に依存している。
概念実証として、トレーニングされたTEMPベースの畳み込みニューラルネットワーク(CNN)が、MNISTデータセット上で99%以上の精度を示すことを示す。
論文 参考訳(メタデータ) (2023-04-27T02:01:54Z) - A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with
Few Neurons [0.11726720776908518]
SNNにおける時間的エンコーディングと特徴抽出のための2つの神経計算要素について検討した。
リソース効率の良いキーワードスポッティングアプリケーションは、これらのエンコーダを使用することで恩恵を受けることができるが、時間定数と重み付けを学習する手法をさらに研究する必要がある。
論文 参考訳(メタデータ) (2023-01-24T12:50:54Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。