論文の概要: A Scalable, Causal, and Energy Efficient Framework for Neural Decoding with Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2510.20683v1
- Date: Thu, 23 Oct 2025 15:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.317919
- Title: A Scalable, Causal, and Energy Efficient Framework for Neural Decoding with Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークを用いたニューラルデコードのためのスケーラブル,因果,エネルギー効率のよいフレームワーク
- Authors: Georgios Mentzelopoulos, Ioannis Asmanis, Konrad P. Kording, Eva L. Dyer, Kostas Daniilidis, Flavia Vitale,
- Abstract要約: Spikachuはスケーラブルで因果的でエネルギー効率のよいSNNベースのニューラルデコーディングフレームワークである。
我々は,ヒト以外の霊長類6種の記録セッション113回に対するアプローチを評価した。
本手法は,2.26から418.81倍のエネルギーで単一セッションでトレーニングした場合,因果ベースラインよりも優れる。
- 参考スコア(独自算出の注目度): 30.855279392147082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain-computer interfaces (BCIs) promise to enable vital functions, such as speech and prosthetic control, for individuals with neuromotor impairments. Central to their success are neural decoders, models that map neural activity to intended behavior. Current learning-based decoding approaches fall into two classes: simple, causal models that lack generalization, or complex, non-causal models that generalize and scale offline but struggle in real-time settings. Both face a common challenge, their reliance on power-hungry artificial neural network backbones, which makes integration into real-world, resource-limited systems difficult. Spiking neural networks (SNNs) offer a promising alternative. Because they operate causally these models are suitable for real-time use, and their low energy demands make them ideal for battery-constrained environments. To this end, we introduce Spikachu: a scalable, causal, and energy-efficient neural decoding framework based on SNNs. Our approach processes binned spikes directly by projecting them into a shared latent space, where spiking modules, adapted to the timing of the input, extract relevant features; these latent representations are then integrated and decoded to generate behavioral predictions. We evaluate our approach on 113 recording sessions from 6 non-human primates, totaling 43 hours of recordings. Our method outperforms causal baselines when trained on single sessions using between 2.26 and 418.81 times less energy. Furthermore, we demonstrate that scaling up training to multiple sessions and subjects improves performance and enables few-shot transfer to unseen sessions, subjects, and tasks. Overall, Spikachu introduces a scalable, online-compatible neural decoding framework based on SNNs, whose performance is competitive relative to state-of-the-art models while consuming orders of magnitude less energy.
- Abstract(参考訳): 脳-コンピュータインターフェース(BCI)は、神経運動障害を持つ個人に対して、音声や義肢の制御などの重要な機能を実現することを約束する。
彼らの成功の中心はニューラルデコーダであり、神経活動を意図した行動にマッピングするモデルである。
現在の学習ベースのデコードアプローチは、一般化に欠ける単純で因果的なモデル、あるいはオフラインを一般化しスケールするがリアルタイム設定に苦しむ複雑な非因果的モデルという2つのクラスに分類される。
どちらも共通の課題に直面しており、パワーハングリーな人工知能のバックボーンに依存しているため、現実のリソース制限されたシステムへの統合が困難になる。
スパイキングニューラルネットワーク(SNN)は、有望な代替手段を提供する。
それらは因果的に動作するため、これらのモデルはリアルタイムに使用するのに適しており、その低エネルギー要求は、バッテリに制約された環境に最適である。
この目的のために、SNNに基づいたスケーラブルで因果的でエネルギー効率のよいニューラルデコーディングフレームワークであるSpikachuを紹介します。
提案手法では,入力のタイミングに適応したスパイクモジュールが関連する特徴を抽出し,これらの潜伏表現を統合してデコードし,行動予測を生成する。
我々は,ヒト以外の霊長類6種の記録セッション113件について,計43時間の録音を行った。
本手法は,2.26から418.81倍のエネルギーで単一セッションでトレーニングした場合,因果ベースラインよりも優れる。
さらに,複数のセッションや課題にトレーニングを拡大することで,パフォーマンスが向上し,見つからないセッションや課題,タスクへの数発の移行が可能になることを実証した。
全体として、Spikachu氏は、SNNに基づいたスケーラブルでオンライン互換のニューラルデコーディングフレームワークを紹介している。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - SpikingSSMs: Learning Long Sequences with Sparse and Parallel Spiking State Space Models [19.04709216497077]
長いシーケンス学習のためのスパイキング状態空間モデル(SpikingSSM)を開発した。
樹状ニューロン構造にインスパイアされた我々は、神経力学を元のSSMブロックと階層的に統合する。
そこで本研究では,リセット後の膜電位を正確に予測し,学習可能なしきい値に適合する軽量サロゲート動的ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T09:35:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。