論文の概要: ANN vs SNN: A case study for Neural Decoding in Implantable
Brain-Machine Interfaces
- arxiv url: http://arxiv.org/abs/2312.15889v1
- Date: Tue, 26 Dec 2023 05:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:55:55.658459
- Title: ANN vs SNN: A case study for Neural Decoding in Implantable
Brain-Machine Interfaces
- Title(参考訳): ANN vs SNN: 移植可能な脳と機械のインタフェースにおけるニューラルデコードの一症例
- Authors: Biyan Zhou, Pao-Sheng Vincent Sun, and Arindam Basu
- Abstract要約: 本研究では,運動復号化のための異なるニューラルネットワーク(NN)を精度と実装コストの観点から比較する。
さらに,従来の信号処理技術と機械学習技術を組み合わせることで,単純なNNでも驚くほど優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 0.7904805552920349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While it is important to make implantable brain-machine interfaces (iBMI)
wireless to increase patient comfort and safety, the trend of increased channel
count in recent neural probes poses a challenge due to the concomitant increase
in the data rate. Extracting information from raw data at the source by using
edge computing is a promising solution to this problem, with integrated
intention decoders providing the best compression ratio. In this work, we
compare different neural networks (NN) for motor decoding in terms of accuracy
and implementation cost. We further show that combining traditional signal
processing techniques with machine learning ones deliver surprisingly good
performance even with simple NNs. Adding a block Bidirectional Bessel filter
provided maximum gains of $\approx 0.05$, $0.04$ and $0.03$ in $R^2$ for
ANN\_3d, SNN\_3D and ANN models, while the gains were lower ($\approx 0.02$ or
less) for LSTM and SNN\_streaming models. Increasing training data helped
improve the $R^2$ of all models by $0.03-0.04$ indicating they have more
capacity for future improvement. In general, LSTM and SNN\_streaming models
occupy the high and low ends of the pareto curves (for accuracy vs.
memory/operations) respectively while SNN\_3D and ANN\_3D occupy intermediate
positions. Our work presents state of the art results for this dataset and
paves the way for decoder-integrated-implants of the future.
- Abstract(参考訳): 組込み型脳-機械インタフェース(iBMI)をワイヤレス化して患者の快適性と安全性を高めることが重要であるが、近年のニューラルプローブにおけるチャネル数の増加傾向は、データレートの増加による課題となっている。
エッジコンピューティングを用いてソースの生データから情報を抽出することは、最適な圧縮比を提供する統合意図デコーダを用いて、この問題に対する有望な解決策である。
本研究では,運動復号化のための異なるニューラルネットワーク(NN)を精度と実装コストの観点から比較する。
さらに,従来の信号処理技術と機械学習を組み合わせることで,単純なnnでも驚くほど優れた性能が得られることを示す。
ブロックを追加することで、ALN\_3d、SNN\_3D、ANNモデルに対して$\approx 0.05$、$0.04$、$0.03$の最大ゲインが得られ、LSTMとSNN\_streamingモデルでは$0.02$以下となった。
トレーニングデータの増加は、すべてのモデルのR^2$を0.03-0.04$に改善する助けとなった。
一般に、LSTMとSNN\_streamingモデルは、それぞれ(精度対メモリ/操作)パレート曲線の高位と低位を占有し、SNN\_3DとANN\_3Dは中間位置を占める。
我々の研究は、このデータセットの成果を提示し、未来のデコーダ統合実装の道を開く。
関連論文リスト
- Obtaining Optimal Spiking Neural Network in Sequence Learning via CRNN-SNN Conversion [12.893883491781697]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)に代わる有望な選択肢である
我々は、ニューラルネットワークにおける異なる構造のエンドツーエンド変換をサポートするために、2つのサブパイプを設計する。
本手法の有効性を,最先端の学習法や変換法と比較し,短時間・長期の時間スケールで示す。
論文 参考訳(メタデータ) (2024-08-18T08:23:51Z) - One-Spike SNN: Single-Spike Phase Coding with Base Manipulation for ANN-to-SNN Conversion Loss Minimization [0.41436032949434404]
スパイクニューラルネットワーク(SNN)はイベント駆動であるため、エネルギー効率は従来の人工ニューラルネットワーク(ANN)よりも高い。
本研究では,SNN層間でデータを転送するスパイク数を最小限に抑える符号化方式として,単一スパイク位相符号化を提案する。
ANNに対する追加のトレーニングやアーキテクチャ上の制約がなければ、提案手法はCIFARとImageNetデータセットによる3つの畳み込みニューラルネットワーク(CNN)上で検証された推論精度(平均0.58%)を失うことはない。
論文 参考訳(メタデータ) (2024-01-30T02:00:28Z) - Memory-Efficient Reversible Spiking Neural Networks [8.05761813203348]
スパイキングニューラルネットワーク(SNN)は、人工知能ニューラルネットワーク(ANN)と競合する可能性がある
SNNは、より深いSNNモデルのトレーニングを妨げるANNよりもはるかに多くのメモリを必要とする。
本稿では、トレーニング中の中間活性化と膜電位のメモリコストを低減するために、可逆的なスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-13T06:39:49Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Low Latency Conversion of Artificial Neural Network Models to
Rate-encoded Spiking Neural Networks [11.300257721586432]
スパイキングニューラルネットワーク(SNN)は、リソース制約のあるアプリケーションに適している。
典型的なレートエンコードされたSNNでは、グローバルに固定された時間ウィンドウ内の一連のバイナリスパイクを使用してニューロンを発射する。
本研究の目的は、ANNを等価SNNに変換する際の精度を維持しつつ、これを削減することである。
論文 参考訳(メタデータ) (2022-10-27T08:13:20Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。