論文の概要: Spikemax: Spike-based Loss Methods for Classification
- arxiv url: http://arxiv.org/abs/2205.09845v1
- Date: Thu, 19 May 2022 20:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 08:26:49.985741
- Title: Spikemax: Spike-based Loss Methods for Classification
- Title(参考訳): Spikemax: 分類のためのスパイクベースの損失方法
- Authors: Sumit Bam Shrestha and Longwei Zhu and Pengfei Sun
- Abstract要約: Spiking Neural Networks(SNN)は、低消費電力エッジベースのコンピューティングのための有望な研究パラダイムである。
SNNのバックプロパゲーションにおける最近の研究は,SNNの実践的な訓練を可能にしている。
我々は、スパイクカウント測度から出力確率の解釈を定式化し、スパイクベースの負のログ類似度測度を導入する。
- 参考スコア(独自算出の注目度): 6.563774552767812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks~(SNNs) are a promising research paradigm for low
power edge-based computing. Recent works in SNN backpropagation has enabled
training of SNNs for practical tasks. However, since spikes are binary events
in time, standard loss formulations are not directly compatible with spike
output. As a result, current works are limited to using mean-squared loss of
spike count. In this paper, we formulate the output probability interpretation
from the spike count measure and introduce spike-based negative log-likelihood
measure which are more suited for classification tasks especially in terms of
the energy efficiency and inference latency. We compare our loss measures with
other existing alternatives and evaluate using classification performances on
three neuromorphic benchmark datasets: NMNIST, DVS Gesture and N-TIDIGITS18. In
addition, we demonstrate state of the art performances on these datasets,
achieving faster inference speed and less energy consumption.
- Abstract(参考訳): Spiking Neural Networks〜(SNN)は、低消費電力エッジベースのコンピューティングのための有望な研究パラダイムである。
SNNバックプロパゲーションの最近の研究により,SNNの実践的な訓練が可能になった。
しかし、スパイクは時間内にバイナリイベントとなるため、標準損失定式化はスパイク出力と直接互換性がない。
その結果、現在の作業はスパイク数の平均二乗損失の使用に限られる。
本稿では,スパイク数測度からの出力確率解釈を定式化し,特にエネルギー効率と推論レイテンシの観点から分類タスクに適するスパイクに基づく負の対数類似度尺度を提案する。
我々は,nmnist,dvs gesture,n-tidigits18の3つのベンチマークデータセットにおいて,損失尺度を他の既存手法と比較し,分類性能評価を行った。
さらに,これらのデータセット上での技術性能を実証し,より高速な推論速度と省エネルギーを実現する。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - A temporally and spatially local spike-based backpropagation algorithm
to enable training in hardware [0.0]
Spiking Neural Networks (SNN)は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
論文 参考訳(メタデータ) (2022-07-20T08:57:53Z) - Spike Calibration: Fast and Accurate Conversion of Spiking Neural
Network for Object Detection and Segmentation [12.479603018237729]
スパイキングニューラルネットワーク (SNN) は、高生物学的可視性とニューロモルフィックハードウェアにおける低エネルギー消費の性質により、非常に重要視されている。
ディープSNNを得るための効率的な方法として,様々な大規模データセット上で高い性能を示す変換法が提案されている。
論文 参考訳(メタデータ) (2022-07-06T14:18:44Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。