論文の概要: Adaptively Pruned Spiking Neural Networks for Energy-Efficient Intracortical Neural Decoding
- arxiv url: http://arxiv.org/abs/2504.11568v1
- Date: Tue, 15 Apr 2025 19:16:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:37:08.042616
- Title: Adaptively Pruned Spiking Neural Networks for Energy-Efficient Intracortical Neural Decoding
- Title(参考訳): エネルギー効率の良い皮質内神経復号のための適応的打ち込みスパイクニューラルネットワーク
- Authors: Francesca Rivelli, Martin Popov, Charalampos S. Kouzinopoulos, Guangzhi Tang,
- Abstract要約: ニューロモルフィックハードウェア上でのニューラルネットワーク(SNN)のスパイキングは、ニューラルデコーディングにおいて顕著な効率性を示している。
本稿では,脳皮質内神経復号をターゲットとした,高アクティベーション領域を有するSNNを対象とした適応型プルーニングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.06181089784338582
- License:
- Abstract: Intracortical brain-machine interfaces demand low-latency, energy-efficient solutions for neural decoding. Spiking Neural Networks (SNNs) deployed on neuromorphic hardware have demonstrated remarkable efficiency in neural decoding by leveraging sparse binary activations and efficient spatiotemporal processing. However, reducing the computational cost of SNNs remains a critical challenge for developing ultra-efficient intracortical neural implants. In this work, we introduce a novel adaptive pruning algorithm specifically designed for SNNs with high activation sparsity, targeting intracortical neural decoding. Our method dynamically adjusts pruning decisions and employs a rollback mechanism to selectively eliminate redundant synaptic connections without compromising decoding accuracy. Experimental evaluation on the NeuroBench Non-Human Primate (NHP) Motor Prediction benchmark shows that our pruned network achieves performance comparable to dense networks, with a maximum tenfold improvement in efficiency. Moreover, hardware simulation on the neuromorphic processor reveals that the pruned network operates at sub-$\mu$W power levels, underscoring its potential for energy-constrained neural implants. These results underscore the promise of our approach for advancing energy-efficient intracortical brain-machine interfaces with low-overhead on-device intelligence.
- Abstract(参考訳): 皮質内脳-機械界面は低レイテンシでエネルギー効率のよい神経復号法を必要とする。
ニューロモルフィックハードウェア上に展開されるスパイキングニューラルネットワーク(SNN)は、スパースバイナリアクティベーションと効率的な時空間処理を活用することにより、ニューラルネットワークのデコーディングにおいて顕著な効率性を示した。
しかしながら、SNNの計算コストの削減は、超効率的な皮質内神経インプラントを開発する上で重要な課題である。
本研究では,脳皮質内神経復号をターゲットとした,高アクティベーション領域を有するSNNを対象とした適応型プルーニングアルゴリズムを提案する。
本手法はプルーニング決定を動的に調整し,復号精度を損なうことなく冗長なシナプス接続を選択的に除去するロールバック機構を用いる。
NeuroBench Non-Human Primate (NHP) Motor Predictionベンチマークの実験的評価は、我々の刈り取ったネットワークが高密度ネットワークに匹敵する性能を達成し、最大10倍の効率向上を実現していることを示している。
さらに、ニューロモルフィックプロセッサのハードウェアシミュレーションにより、プルーンドネットワークは、エネルギー制約されたニューラルインプラントのポテンシャルを裏付ける、$$$W以下の電力レベルで動作することが明らかになった。
これらの結果は,低オーバヘッド・デバイス・インテリジェンスを用いたエネルギー効率の高い脳内脳-機械インタフェースの実現に向けた我々のアプローチの可能性を裏付けるものである。
関連論文リスト
- Threshold Neuron: A Brain-inspired Artificial Neuron for Efficient On-device Inference [17.95548501630064]
本稿では,新しい人工ニューロンモデルThreshold Neuronsを提案する。
従来の人工ニューロンと同様のニューラルネットワークを構築しながら,ハードウェア実装の複雑さを大幅に低減する。
本研究では,Threshold Neuronsを用いたニューラルネットワークの有効性を検証し,カーネルレベルでは7.51倍から8.19倍の省電力を実現し,カーネルレベルでは3.89倍から4.33倍の省電力を実現した。
論文 参考訳(メタデータ) (2024-12-18T14:42:43Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Energy-efficient Spiking Neural Network Equalization for IM/DD Systems
with Optimized Neural Encoding [53.909333359654276]
スパイクニューラルネットワークに基づくIM/DDシステムのエネルギー効率の等化器を提案する。
エネルギー消費を低減しつつ、等化器の性能を高めるニューラルスパイク符号化を最適化する。
論文 参考訳(メタデータ) (2023-12-20T10:45:24Z) - Recent Advances in Scalable Energy-Efficient and Trustworthy Spiking
Neural networks: from Algorithms to Technology [11.479629320025673]
スパイキングニューラルネットワーク(SNN)は、幅広い信号処理アプリケーションのために、ディープニューラルネットワークの魅力的な代替品となっている。
我々は、低レイテンシとエネルギー効率のSNNを効率的に訓練し、拡張するためのアルゴリズムと最適化の進歩について述べる。
デプロイ可能なSNNシステム構築における研究の今後の可能性について論じる。
論文 参考訳(メタデータ) (2023-12-02T19:47:00Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。