論文の概要: Spike Calibration: Fast and Accurate Conversion of Spiking Neural
Network for Object Detection and Segmentation
- arxiv url: http://arxiv.org/abs/2207.02702v1
- Date: Wed, 6 Jul 2022 14:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 12:52:15.591692
- Title: Spike Calibration: Fast and Accurate Conversion of Spiking Neural
Network for Object Detection and Segmentation
- Title(参考訳): スパイクキャリブレーション:オブジェクト検出とセグメンテーションのためのスパイクニューラルネットワークの高速かつ正確な変換
- Authors: Yang Li, Xiang He, Yiting Dong, Qingqun Kong, Yi Zeng
- Abstract要約: スパイキングニューラルネットワーク (SNN) は、高生物学的可視性とニューロモルフィックハードウェアにおける低エネルギー消費の性質により、非常に重要視されている。
ディープSNNを得るための効率的な方法として,様々な大規模データセット上で高い性能を示す変換法が提案されている。
- 参考スコア(独自算出の注目度): 12.479603018237729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural network (SNN) has been attached to great importance due to the
properties of high biological plausibility and low energy consumption on
neuromorphic hardware. As an efficient method to obtain deep SNN, the
conversion method has exhibited high performance on various large-scale
datasets. However, it typically suffers from severe performance degradation and
high time delays. In particular, most of the previous work focuses on simple
classification tasks while ignoring the precise approximation to ANN output. In
this paper, we first theoretically analyze the conversion errors and derive the
harmful effects of time-varying extremes on synaptic currents. We propose the
Spike Calibration (SpiCalib) to eliminate the damage of discrete spikes to the
output distribution and modify the LIPooling to allow conversion of the
arbitrary MaxPooling layer losslessly. Moreover, Bayesian optimization for
optimal normalization parameters is proposed to avoid empirical settings. The
experimental results demonstrate the state-of-the-art performance on
classification, object detection, and segmentation tasks. To the best of our
knowledge, this is the first time to obtain SNN comparable to ANN on these
tasks simultaneously. Moreover, we only need 1/50 inference time of the
previous work on the detection task and can achieve the same performance under
0.492$\times$ energy consumption of ANN on the segmentation task.
- Abstract(参考訳): スパイキングニューラルネットワーク (SNN) は、高生物学的可視性とニューロモルフィックハードウェアにおける低エネルギー消費の性質により、非常に重要視されている。
ディープSNNを得るための効率的な方法として,様々な大規模データセット上で高い性能を示した。
しかし、通常は深刻な性能低下と高い時間遅延に苦しむ。
特に、以前の研究のほとんどは、ANN出力の正確な近似を無視しながら、単純な分類タスクに焦点を当てている。
本稿では,まず変換誤差を理論的に解析し,時変極値のシナプス電流に対する有害な影響を導出する。
我々は、離散スパイクの出力分布への損傷を排除し、任意のMaxPooling層を損失なく変換できるようにLIPoolingを修正するためのSpike Calibration(SpiCalib)を提案する。
さらに,最適正規化パラメータに対するベイズ最適化は経験的設定を避けるために提案されている。
実験結果は,分類,オブジェクト検出,セグメンテーションタスクにおける最先端性能を示す。
我々の知る限りでは、これらのタスクでANNに匹敵するSNNを同時に獲得するのはこれが初めてである。
さらに,検出タスクにおける前回の作業の1/50の推測時間しか必要とせず,セグメント化タスクにおけるANNのエネルギー消費の0.492$\times以下で同じ性能を実現することができる。
関連論文リスト
- Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Spiking Neural Network for Ultra-low-latency and High-accurate Object
Detection [18.037802439500858]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率と脳にインスパイアされたイベント駆動特性に対する幅広い関心を集めている。
Spiking-YOLOのような最近の手法では、SNNをより困難なオブジェクト検出タスクに拡張している。
レイテンシが高く、検出精度が低いため、レイテンシに敏感なモバイルプラットフォームへのデプロイが困難になることが多い。
論文 参考訳(メタデータ) (2023-06-21T04:21:40Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Bridging the Gap between ANNs and SNNs by Calibrating Offset Spikes [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は低消費電力と時間情報処理の特徴的な特徴から注目されている。
ANN-SNN変換は、SNNに適用するための最も一般的な訓練方法であり、変換されたSNNが大規模データセット上でANNに匹敵するパフォーマンスを達成することを確実にする。
本稿では、異なる変換誤差を評価してこれらの誤りを除去する代わりに、実際のSNN発射速度と所望のSNN発射速度のずれ度を測定するためにオフセットスパイクを定義する。
論文 参考訳(メタデータ) (2023-02-21T14:10:56Z) - Reducing ANN-SNN Conversion Error through Residual Membrane Potential [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は、低消費電力のユニークな特性とニューロモルフィックチップ上の高速コンピューティングにより、広く学術的な注目を集めている。
本稿では,不均一な誤差を詳細に解析し,それを4つのカテゴリに分割する。
本研究では,残膜電位に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T04:44:31Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Towards Lossless ANN-SNN Conversion under Ultra-Low Latency with Dual-Phase Optimization [30.098268054714048]
非同期離散イベントで動作するスパイキングニューラルネットワーク(SNN)は、スパース計算によるエネルギー効率の向上を示す。
ディープSNNを実装するための一般的なアプローチは、ANNの効率的なトレーニングとSNNの効率的な推論を組み合わせたANN-SNN変換である。
本稿では,SNNにおける負または過フロー残留膜電位の誤表現に起因する性能劣化を最初に同定する。
そこで我々は,変換誤差を量子化誤差,クリッピング誤差,残留膜電位表現誤差の3つの部分に分解した。
論文 参考訳(メタデータ) (2022-05-16T06:53:14Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。