論文の概要: ANN vs SNN: A case study for Neural Decoding in Implantable
Brain-Machine Interfaces
- arxiv url: http://arxiv.org/abs/2312.15889v1
- Date: Tue, 26 Dec 2023 05:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:55:55.658459
- Title: ANN vs SNN: A case study for Neural Decoding in Implantable
Brain-Machine Interfaces
- Title(参考訳): ANN vs SNN: 移植可能な脳と機械のインタフェースにおけるニューラルデコードの一症例
- Authors: Biyan Zhou, Pao-Sheng Vincent Sun, and Arindam Basu
- Abstract要約: 本研究では,運動復号化のための異なるニューラルネットワーク(NN)を精度と実装コストの観点から比較する。
さらに,従来の信号処理技術と機械学習技術を組み合わせることで,単純なNNでも驚くほど優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 0.7904805552920349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While it is important to make implantable brain-machine interfaces (iBMI)
wireless to increase patient comfort and safety, the trend of increased channel
count in recent neural probes poses a challenge due to the concomitant increase
in the data rate. Extracting information from raw data at the source by using
edge computing is a promising solution to this problem, with integrated
intention decoders providing the best compression ratio. In this work, we
compare different neural networks (NN) for motor decoding in terms of accuracy
and implementation cost. We further show that combining traditional signal
processing techniques with machine learning ones deliver surprisingly good
performance even with simple NNs. Adding a block Bidirectional Bessel filter
provided maximum gains of $\approx 0.05$, $0.04$ and $0.03$ in $R^2$ for
ANN\_3d, SNN\_3D and ANN models, while the gains were lower ($\approx 0.02$ or
less) for LSTM and SNN\_streaming models. Increasing training data helped
improve the $R^2$ of all models by $0.03-0.04$ indicating they have more
capacity for future improvement. In general, LSTM and SNN\_streaming models
occupy the high and low ends of the pareto curves (for accuracy vs.
memory/operations) respectively while SNN\_3D and ANN\_3D occupy intermediate
positions. Our work presents state of the art results for this dataset and
paves the way for decoder-integrated-implants of the future.
- Abstract(参考訳): 組込み型脳-機械インタフェース(iBMI)をワイヤレス化して患者の快適性と安全性を高めることが重要であるが、近年のニューラルプローブにおけるチャネル数の増加傾向は、データレートの増加による課題となっている。
エッジコンピューティングを用いてソースの生データから情報を抽出することは、最適な圧縮比を提供する統合意図デコーダを用いて、この問題に対する有望な解決策である。
本研究では,運動復号化のための異なるニューラルネットワーク(NN)を精度と実装コストの観点から比較する。
さらに,従来の信号処理技術と機械学習を組み合わせることで,単純なnnでも驚くほど優れた性能が得られることを示す。
ブロックを追加することで、ALN\_3d、SNN\_3D、ANNモデルに対して$\approx 0.05$、$0.04$、$0.03$の最大ゲインが得られ、LSTMとSNN\_streamingモデルでは$0.02$以下となった。
トレーニングデータの増加は、すべてのモデルのR^2$を0.03-0.04$に改善する助けとなった。
一般に、LSTMとSNN\_streamingモデルは、それぞれ(精度対メモリ/操作)パレート曲線の高位と低位を占有し、SNN\_3DとANN\_3Dは中間位置を占める。
我々の研究は、このデータセットの成果を提示し、未来のデコーダ統合実装の道を開く。
関連論文リスト
- Coordinated Deep Neural Networks: A Versatile Edge Offloading Algorithm [0.27624021966289597]
エッジ上での協調DNN(textbfCoDE)と呼ばれる新しいアルゴリズムを提案し,DNNサービス間の協調を容易にする。
CoDEは、推論遅延、モデル精度、局所的な計算負荷を反映したコストが最小となる最適経路を見つけることを目的としている。
結果は、ローカルサービス計算のワークロードを75%削減し、精度をわずか2%低下させ、バランスの取れた負荷条件で同じ推論時間を持つことを示した。
論文 参考訳(メタデータ) (2024-01-01T01:54:53Z) - Memory-Efficient Reversible Spiking Neural Networks [8.05761813203348]
スパイキングニューラルネットワーク(SNN)は、人工知能ニューラルネットワーク(ANN)と競合する可能性がある
SNNは、より深いSNNモデルのトレーニングを妨げるANNよりもはるかに多くのメモリを必要とする。
本稿では、トレーニング中の中間活性化と膜電位のメモリコストを低減するために、可逆的なスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-13T06:39:49Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid ANN-SNN Architecture for Low-Power and Low-Latency Visual
Perception [49.877675666360695]
Spiking Neural Networks(SNN)は、バイオインスパイアされたニューラルネットワークの一種で、エッジデバイスに低消費電力で低レイテンシな推論をもたらすことを約束する。
イベントベース2Dおよび3Dヒューマンポーズ推定の課題について,本手法では,ANNに比べて性能を4%低下させることなく,88%の消費電力を消費することを示した。
論文 参考訳(メタデータ) (2023-03-24T17:38:45Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - Low Latency Conversion of Artificial Neural Network Models to
Rate-encoded Spiking Neural Networks [11.300257721586432]
スパイキングニューラルネットワーク(SNN)は、リソース制約のあるアプリケーションに適している。
典型的なレートエンコードされたSNNでは、グローバルに固定された時間ウィンドウ内の一連のバイナリスパイクを使用してニューロンを発射する。
本研究の目的は、ANNを等価SNNに変換する際の精度を維持しつつ、これを削減することである。
論文 参考訳(メタデータ) (2022-10-27T08:13:20Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。