論文の概要: Inference-Scale Complexity in ANN-SNN Conversion for High-Performance and Low-Power Applications
- arxiv url: http://arxiv.org/abs/2409.03368v2
- Date: Wed, 05 Mar 2025 09:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:49:57.606288
- Title: Inference-Scale Complexity in ANN-SNN Conversion for High-Performance and Low-Power Applications
- Title(参考訳): 高性能低消費電力アプリケーションのためのANN-SNN変換における推論スケール複雑度
- Authors: Tong Bu, Maohua Li, Zhaofei Yu,
- Abstract要約: 人工ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場した
推論スケールの複雑さのみを考慮した効率的なANN-SNN変換フレームワークを提案する。
我々のアルゴリズムは既存の手法よりも優れており、実用性と効率性を強調している。
- 参考スコア(独自算出の注目度): 23.502136316777058
- License:
- Abstract: Spiking Neural Networks (SNNs) have emerged as a promising substitute for Artificial Neural Networks (ANNs) due to their advantages of fast inference and low power consumption. However, the lack of efficient training algorithms has hindered their widespread adoption. Even efficient ANN-SNN conversion methods necessitate quantized training of ANNs to enhance the effectiveness of the conversion, incurring additional training costs. To address these challenges, we propose an efficient ANN-SNN conversion framework with only inference scale complexity. The conversion framework includes a local threshold balancing algorithm, which enables efficient calculation of the optimal thresholds and fine-grained adjustment of the threshold value by channel-wise scaling. We also introduce an effective delayed evaluation strategy to mitigate the influence of the spike propagation delays. We demonstrate the scalability of our framework in typical computer vision tasks: image classification, semantic segmentation, object detection, and video classification. Our algorithm outperforms existing methods, highlighting its practical applicability and efficiency. Moreover, we have evaluated the energy consumption of the converted SNNs, demonstrating their superior low-power advantage compared to conventional ANNs. This approach simplifies the deployment of SNNs by leveraging open-source pre-trained ANN models, enabling fast, low-power inference with negligible performance reduction. Code is available at https://github.com/putshua/Inference-scale-ANN-SNN.
- Abstract(参考訳): 高速推論と低消費電力の利点により、スパイキングニューラルネットワーク(SNN)は、ANN(Artificial Neural Networks)の有望な代替品として登場した。
しかし、効率的なトレーニングアルゴリズムの欠如は、その普及を妨げている。
さらに効率的なANN-SNN変換手法は、ANNの定量化トレーニングを必要とし、変換の有効性を高め、追加のトレーニングコストを発生させる。
これらの課題に対処するために,推論スケールの複雑さのみを考慮した効率的なANN-SNN変換フレームワークを提案する。
変換フレームワークは、最適なしきい値の効率的な計算と、チャネルワイズスケーリングによるしきい値のきめ細かい調整を可能にする局所しきい値バランスアルゴリズムを含む。
また,スパイク伝搬遅延の影響を軽減するために,効果的な遅延評価戦略を導入する。
我々は、画像分類、セマンティックセグメンテーション、オブジェクト検出、ビデオ分類といった典型的なコンピュータビジョンタスクにおいて、我々のフレームワークのスケーラビリティを実証する。
我々のアルゴリズムは既存の手法よりも優れており、実用性と効率性を強調している。
さらに, 変換したSNNのエネルギー消費量を評価し, 従来のANNと比較して, 低消費電力の優位性を実証した。
このアプローチは、オープンソースの事前訓練されたANNモデルを活用することにより、SNNのデプロイを単純化し、無視可能なパフォーマンス低下を伴う高速で低消費電力な推論を可能にする。
コードはhttps://github.com/putshua/Inference-scale-ANN-SNNで入手できる。
関連論文リスト
- Faster and Stronger: When ANN-SNN Conversion Meets Parallel Spiking Calculation [45.67180051148674]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率の高いネットワークであり、適切な学習フレームワークを探索する上で重要な課題に直面している。
並列スパイクニューロンの各時間ステップ間の数学的マッピング関係を確立する並列変換学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:37:13Z) - Converting High-Performance and Low-Latency SNNs through Explicit Modelling of Residual Error in ANNs [27.46147049872907]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率とニューロモルフィックチップの優れた効果のために関心を集めている。
ディープSNNの実装における主要なアプローチの1つは、ANN-SNN変換である。
本稿では,残差を付加雑音として明示的にモデル化した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T14:50:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Optimized Potential Initialization for Low-latency Spiking Neural
Networks [21.688402090967497]
スパイキングニューラルネットワーク (SNN) は低消費電力, 生物学的可視性, 敵の強靭性といった特徴により, 非常に重要視されている。
ディープSNNをトレーニングする最も効果的な方法は、ディープネットワーク構造と大規模データセットで最高のパフォーマンスを実現したANN-to-SNN変換である。
本稿では、非常に低レイテンシ(32段階未満)で高性能に変換されたSNNを実現することを目的とする。
論文 参考訳(メタデータ) (2022-02-03T07:15:43Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。