論文の概要: Hyperdimensional Decoding of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2511.08558v1
- Date: Wed, 12 Nov 2025 02:04:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.86421
- Title: Hyperdimensional Decoding of Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの超次元デコード
- Authors: Cedrick Kinavuidi, Luca Peres, Oliver Rhodes,
- Abstract要約: 本研究では、SNNと超次元計算(HDC)を組み合わせた新しいスパイキングニューラルネットワーク(SNN)復号法を提案する。
目標は、高精度、高ノイズ堅牢性、低レイテンシ、低エネルギー使用量で復号化する方法を作ることである。
- 参考スコア(独自算出の注目度): 0.17646262965516948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a novel spiking neural network (SNN) decoding method, combining SNNs with Hyperdimensional computing (HDC). The goal is to create a decoding method with high accuracy, high noise robustness, low latency and low energy usage. Compared to analogous architectures decoded with existing approaches, the presented SNN-HDC model attains generally better classification accuracy, lower classification latency and lower estimated energy consumption on multiple test cases from literature. The SNN-HDC achieved estimated energy consumption reductions ranging from 1.24x to 3.67x on the DvsGesture dataset and from 1.38x to 2.27x on the SL-Animals-DVS dataset. The presented decoding method can also efficiently identify unknown classes it has not been trained on. In the DvsGesture dataset the SNN-HDC model can identify 100% of samples from an unseen/untrained class. Given the numerous benefits shown and discussed in this paper, this decoding method represents a very compelling alternative to both rate and latency decoding.
- Abstract(参考訳): 本研究では、SNNと超次元計算(HDC)を組み合わせた新しいスパイキングニューラルネットワーク(SNN)デコーディング手法を提案する。
目標は、高精度、高ノイズ堅牢性、低レイテンシ、低エネルギー使用量で復号化する方法を作ることである。
既存の手法でデコードされた類似アーキテクチャと比較して、提案したSNN-HDCモデルは一般的に、分類精度の向上、分類遅延の低減、複数のテストケースにおける推定エネルギー消費量の低減を実現している。
SNN-HDCはDvsGestureデータセットの1.24倍から3.67倍、SL-Animals-DVSデータセットの1.38倍から2.27倍のエネルギー消費削減を達成した。
提示された復号法は、訓練されていない未知のクラスを効率的に識別することができる。
DvsGestureデータセットでは、SNN-HDCモデルは、目に見えない/訓練されていないクラスから100%のサンプルを識別できる。
本稿で論じられた多くの利点を踏まえると、この復号法はレートと遅延復号の双方に対して非常に魅力的な代替手段である。
関連論文リスト
- Combining SNNs with Filtering for Efficient Neural Decoding in Implantable Brain-Machine Interfaces [0.7904805552920349]
スパイキングニューラルネットワーク(SNN)は、リソース効率の良いニューラルデコードのための有望なソリューションとして出現する。
LSTM(Long Short Term Memory)ネットワークは、最高の精度を実現する。
異なるフィルタによる結果は、最高のパフォーマンスを提供するBesselフィルタで示されます。
論文 参考訳(メタデータ) (2023-12-26T05:40:39Z) - Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning [67.40866334083941]
限定サンプルに基づくHSI分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(CNN)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低い。
本モデルでは,HSI分類の競合性能を,いくつかの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-12-07T03:44:35Z) - DCT-SNN: Using DCT to Distribute Spatial Information over Time for
Learning Low-Latency Spiking Neural Networks [7.876001630578417]
Spiking Neural Networks(SNN)は、従来のディープラーニングフレームワークに代わる有望な選択肢を提供する。
SNNは高い推論遅延に悩まされており、デプロイメントの大きなボトルネックとなっている。
本稿では、離散コサイン変換(DCT)を用いて、推論に必要な時間ステップ数を削減できるスケーラブルな時間ベースの符号化方式を提案する。
論文 参考訳(メタデータ) (2020-10-05T05:55:34Z) - Enabling Deep Spiking Neural Networks with Hybrid Conversion and Spike
Timing Dependent Backpropagation [10.972663738092063]
Spiking Neural Networks(SNN)は非同期離散イベント(スパイク)で動作する
本稿では,深層SNNのための計算効率のよいトレーニング手法を提案する。
我々は、SNN上のImageNetデータセットの65.19%のトップ1精度を250タイムステップで達成し、同様の精度で変換されたSNNに比べて10倍高速である。
論文 参考訳(メタデータ) (2020-05-04T19:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。