論文の概要: Bursting Spikes: Efficient and High-performance SNNs for Event-based
Vision
- arxiv url: http://arxiv.org/abs/2311.14265v1
- Date: Fri, 24 Nov 2023 03:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:00:55.163605
- Title: Bursting Spikes: Efficient and High-performance SNNs for Event-based
Vision
- Title(参考訳): バーストスパイクス:イベントベースビジョンのための効率的かつ高性能なSNN
- Authors: Ziqing Wang, Yuetong Fang, Jiahang Cao, Renjing Xu
- Abstract要約: スパイクニューラルネットワーク(SNN)によるイベント駆動型ビジョンは、高速で効率的な知覚を促進するために不可欠である。
生体神経系にインスパイアされたバーストスパイク機構を導入する。
変換過程におけるエネルギー消費を低減するため,感度駆動型スパイク圧縮手法を提案する。
- 参考スコア(独自算出の注目度): 1.7833229323127784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancing event-driven vision through spiking neural networks (SNNs) is
crucial to empowering high-speed and efficient perception. While directly
converting the pre-trained artificial neural networks (ANNs) - by replacing the
non-linear activation with spiking neurons - can provide SNNs with good
performance, the resultant SNNs typically demand long timesteps and high energy
consumption to achieve their optimal performance. To address this challenge, we
introduce the burst-spike mechanism inspired by the biological nervous system,
allowing multiple spikes per timestep to reduce conversion errors and produce
low-latency SNNs. To further bolster this enhancement, we leverage the Pareto
Frontier-driven algorithm to reallocate burst-firing patterns. Moreover, to
reduce energy consumption during the conversion process, we propose a
sensitivity-driven spike compression technique, which automatically locates the
optimal threshold ratio according to layer-specific sensitivity. Extensive
experiments demonstrate our approach outperforms state-of-the-art SNN methods,
showcasing superior performance and reduced energy usage across classification
and object detection. Our code will be available at
https://github.com/bic-L/burst-ann2snn.
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)によるイベント駆動型ビジョンの促進は、高速で効率的な知覚を促進するために不可欠である。
トレーニング済みの人工知能ニューラルネットワーク(ANN)を直接変換する — 非線形活性化をスパイクニューロンに置き換えることで、SNNのパフォーマンスが向上する一方で、結果のSNNは通常、最適なパフォーマンスを達成するために、長いタイムステップと高いエネルギー消費を要求する。
この課題に対処するために、生物学的神経系にインスパイアされたバーストスパイク機構を導入し、時間ごとの複数のスパイクによって変換エラーを低減し、低遅延SNNを生成する。
この強化をさらに強化するため、我々はpareto frontier-drivenアルゴリズムを利用してバーストファイリングパターンを再配置する。
さらに,変換過程におけるエネルギー消費量を低減するため,層別感度に応じて最適な閾値比を自動的に求める感度駆動スパイク圧縮手法を提案する。
広範な実験により,最先端のsnn法よりも優れた性能を示し,分類とオブジェクト検出におけるエネルギー使用率の低減を実証した。
私たちのコードはhttps://github.com/bic-l/burst-ann2snnで入手できる。
関連論文リスト
- Parallel Hyperparameter Optimization Of Spiking Neural Network [0.5371337604556311]
スパイキングニューラルネットワーク(SNN)は、通常の人工ニューラルネットワークよりも生物学的にインスパイアされたアプローチに基づいている。
我々は、サイレントネットワークと呼ぶSNNの信号損失問題に取り組む。
早期停止基準を定義することで、我々はより大きく柔軟な検索空間をインスタンス化することができた。
論文 参考訳(メタデータ) (2024-03-01T11:11:59Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network
through Spatial-Temporal Compressive Network Search and Joint Optimization [51.9395471326897]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitESNNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - SLSSNN: High energy efficiency spike-train level spiking neural networks
with spatio-temporal conversion [3.6319679959540494]
脳スパイクニューロンネットワーク(SNN)は、低消費電力の特徴、高い生物学的可視性、強力な情報処理能力により、広く研究の関心を集めている。
計算コストが低く高精度なエネルギー効率の高いスパイクトレインレベルのスパイクニューラルネットワーク(SLSSNN)を提案する。
論文 参考訳(メタデータ) (2023-07-14T03:27:34Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Optimizing the Consumption of Spiking Neural Networks with Activity
Regularization [15.317534913990633]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、二元活性化を用いてエネルギーを節約し、スパイクしないときにエネルギーを消費しないバイオインスパイアされた技術の例である。
本研究では、ニューラルネットワークの活性化マップに疎結合を強制するための異なる手法を検討し、最適化されたDNNとSNNの効率に対する異なるトレーニング正規化器の効果を比較する。
論文 参考訳(メタデータ) (2022-04-04T13:19:47Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Towards Low-Latency Energy-Efficient Deep SNNs via Attention-Guided
Compression [12.37129078618206]
ディープスパイクニューラルネットワーク(SNN)は、従来のディープラーニングフレームワークに代わる潜在的な選択肢として登場した。
ほとんどのSNNトレーニングフレームワークは、スパイクアクティビティの増加とエネルギー効率の低下につながる大きな推論遅延をもたらす。
本稿では, スパイク活性を低減した超高圧縮を実現する非定常SNNトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T18:23:36Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。