論文の概要: Bursting Spikes: Efficient and High-performance SNNs for Event-based
Vision
- arxiv url: http://arxiv.org/abs/2311.14265v1
- Date: Fri, 24 Nov 2023 03:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:00:55.163605
- Title: Bursting Spikes: Efficient and High-performance SNNs for Event-based
Vision
- Title(参考訳): バーストスパイクス:イベントベースビジョンのための効率的かつ高性能なSNN
- Authors: Ziqing Wang, Yuetong Fang, Jiahang Cao, Renjing Xu
- Abstract要約: スパイクニューラルネットワーク(SNN)によるイベント駆動型ビジョンは、高速で効率的な知覚を促進するために不可欠である。
生体神経系にインスパイアされたバーストスパイク機構を導入する。
変換過程におけるエネルギー消費を低減するため,感度駆動型スパイク圧縮手法を提案する。
- 参考スコア(独自算出の注目度): 1.7833229323127784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancing event-driven vision through spiking neural networks (SNNs) is
crucial to empowering high-speed and efficient perception. While directly
converting the pre-trained artificial neural networks (ANNs) - by replacing the
non-linear activation with spiking neurons - can provide SNNs with good
performance, the resultant SNNs typically demand long timesteps and high energy
consumption to achieve their optimal performance. To address this challenge, we
introduce the burst-spike mechanism inspired by the biological nervous system,
allowing multiple spikes per timestep to reduce conversion errors and produce
low-latency SNNs. To further bolster this enhancement, we leverage the Pareto
Frontier-driven algorithm to reallocate burst-firing patterns. Moreover, to
reduce energy consumption during the conversion process, we propose a
sensitivity-driven spike compression technique, which automatically locates the
optimal threshold ratio according to layer-specific sensitivity. Extensive
experiments demonstrate our approach outperforms state-of-the-art SNN methods,
showcasing superior performance and reduced energy usage across classification
and object detection. Our code will be available at
https://github.com/bic-L/burst-ann2snn.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)によるイベント駆動型ビジョンの促進は、高速で効率的な知覚を促進するために不可欠である。
トレーニング済みの人工知能ニューラルネットワーク(ANN)を直接変換する — 非線形活性化をスパイクニューロンに置き換えることで、SNNのパフォーマンスが向上する一方で、結果のSNNは通常、最適なパフォーマンスを達成するために、長いタイムステップと高いエネルギー消費を要求する。
この課題に対処するために、生物学的神経系にインスパイアされたバーストスパイク機構を導入し、時間ごとの複数のスパイクによって変換エラーを低減し、低遅延SNNを生成する。
この強化をさらに強化するため、我々はpareto frontier-drivenアルゴリズムを利用してバーストファイリングパターンを再配置する。
さらに,変換過程におけるエネルギー消費量を低減するため,層別感度に応じて最適な閾値比を自動的に求める感度駆動スパイク圧縮手法を提案する。
広範な実験により,最先端のsnn法よりも優れた性能を示し,分類とオブジェクト検出におけるエネルギー使用率の低減を実証した。
私たちのコードはhttps://github.com/bic-l/burst-ann2snnで入手できる。
関連論文リスト
- Improvement of Spiking Neural Network with Bit Planes and Color Models [0.0]
スパイキングニューラルネットワーク(SNN)は、計算神経科学と人工知能において有望なパラダイムとして登場した。
本稿では,ビット平面表現を利用した新しい符号化手法により,画像のSNN性能を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:52:49Z) - Q-SNNs: Quantized Spiking Neural Networks [12.719590949933105]
スパイキングニューラルネットワーク(SNN)はスパーススパイクを利用して情報を表現し、イベント駆動方式で処理する。
シナプス重みと膜電位の両方に量子化を適用する軽量でハードウェアフレンドリな量子化SNNを提案する。
本稿では,情報エントロピー理論にインスパイアされた新しいウェイトスパイクデュアルレギュレーション(WS-DR)法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:23:26Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Enabling energy-Efficient object detection with surrogate gradient
descent in spiking neural networks [0.40054215937601956]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、イベント駆動処理と処理時情報の両方において、生物学的にもっとも有効なニューラルネットワークモデルである。
本研究では,オブジェクト検出タスクにおける深部SNNのトレーニングを容易にするために,回帰問題を解くCurrent Mean Decoding(CMD)手法を提案する。
勾配サロゲートとCMDに基づいて,物体検出のためのSNN-YOLOv3モデルを提案する。
論文 参考訳(メタデータ) (2023-09-07T15:48:00Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Skip Connections in Spiking Neural Networks: An Analysis of Their Effect
on Network Training [0.8602553195689513]
従来の人工ニューラルネットワーク(ANN)の代替として、スパイキングニューラルネットワーク(SNN)が注目を集めている。
本稿では,SNNにおけるスキップ接続の影響について検討し,ANNからSNNへのモデル適応を行うハイパーパラメータ最適化手法を提案する。
本研究では,SNNの位置,タイプ,回数を最適化することで,SNNの精度と効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-03-23T07:57:32Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - SpikeDyn: A Framework for Energy-Efficient Spiking Neural Networks with
Continual and Unsupervised Learning Capabilities in Dynamic Environments [14.727296040550392]
スパイキングニューラルネットワーク(SNN)は、生物学的妥当性のため、効率的な教師なしおよび継続的な学習能力の可能性を秘めている。
動的環境下での継続学習と教師なし学習機能を備えたエネルギー効率の高いSNNのためのフレームワークであるSpikeDynを提案する。
論文 参考訳(メタデータ) (2021-02-28T08:26:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。