論文の概要: Compression and Inference of Spiking Neural Networks on Resource-Constrained Hardware
- arxiv url: http://arxiv.org/abs/2511.12136v1
- Date: Sat, 15 Nov 2025 10:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.632254
- Title: Compression and Inference of Spiking Neural Networks on Resource-Constrained Hardware
- Title(参考訳): 資源制約ハードウェアにおけるスパイクニューラルネットワークの圧縮と推論
- Authors: Karol C. Jurzec, Tomasz Szydlo, Maciej Wielgosz,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、連続的なアクティベーションではなく、離散的なスパイクを介して時間内に通信する。
エッジデバイス上でのSNN推論のための軽量なC言語ランタイムを提案する。
我々は,無活動ニューロンやシナプスを刺激するスパーススパイク活性を利用して,上流の畳み込み層での計算を縮小する。
- 参考スコア(独自算出の注目度): 0.2226043394835212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) communicate via discrete spikes in time rather than continuous activations. Their event-driven nature offers advantages for temporal processing and energy efficiency on resource-constrained hardware, but training and deployment remain challenging. We present a lightweight C-based runtime for SNN inference on edge devices and optimizations that reduce latency and memory without sacrificing accuracy. Trained models exported from SNNTorch are translated to a compact C representation; static, cache-friendly data layouts and preallocation avoid interpreter and allocation overheads. We further exploit sparse spiking activity to prune inactive neurons and synapses, shrinking computation in upstream convolutional layers. Experiments on N-MNIST and ST-MNIST show functional parity with the Python baseline while achieving ~10 speedups on desktop CPU and additional gains with pruning, together with large memory reductions that enable microcontroller deployment (Arduino Portenta H7). Results indicate that SNNs can be executed efficiently on conventional embedded platforms when paired with an optimized runtime and spike-driven model compression. Code: https://github.com/karol-jurzec/snn-generator/
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、連続的なアクティベーションではなく、離散的なスパイクを介して時間内に通信する。
彼らのイベント駆動性は、時間的処理とリソース制約のあるハードウェアにおけるエネルギー効率の利点を提供するが、トレーニングとデプロイメントは依然として困難である。
エッジデバイス上でのSNN推論のための軽量なC言語ランタイムと,精度を犠牲にすることなくレイテンシとメモリを削減できる最適化を提案する。
SNNTorchからエクスポートされたトレーニングされたモデルは、静的でキャッシュフレンドリなデータレイアウトと、インタプリタやアロケーションオーバーヘッドを避けるための、コンパクトなC表現に変換される。
さらに,不活性ニューロンやシナプスへのスパーススパイク活性を生かし,上流畳み込み層での計算を縮小する。
N-MNISTとST-MNISTの実験では、Pythonのベースラインと同等に機能し、デスクトップCPU上で約10のスピードアップを実現し、プルーニングによるさらなる向上と、マイクロコントローラのデプロイメントを可能にするメモリ削減(Arduino Portenta H7)が実現されている。
その結果,SNNは最適化ランタイムとスパイク駆動モデル圧縮を組み合わせれば,従来の組込みプラットフォーム上で効率的に実行できることがわかった。
コード:https://github.com/karol-jurzec/snn-generator/
関連論文リスト
- Learning from Dense Events: Towards Fast Spiking Neural Networks Training via Event Dataset Distillatio [33.31825132631613]
イベントカメラは明るさの変化を感知し、バイナリ非同期イベントストリームを出力する。
彼らのバイオインスパイアされたダイナミクスはニューラルネットワーク(SNN)とよく一致しており、従来のビジョンシステムに代わる有望なエネルギー効率の代替手段を提供する。
本稿では,SNNにおける最初のデータセット蒸留フレームワークであるbfPACE(text-Aligned Condensation for Events)を紹介する。
論文 参考訳(メタデータ) (2025-11-15T08:20:47Z) - Optimal Gradient Checkpointing for Sparse and Recurrent Architectures using Off-Chip Memory [0.8321953606016751]
本稿では,スパースRNNとスパイキングニューラルネットワークの一般クラスに適したメモリ効率の高い勾配チェックポイント戦略を提案する。
再計算のオーバーヘッドを最小限に抑えながら、ローカルメモリリソースの使用を最適化し、Double Checkpointingが最も効果的な方法であることが判明した。
論文 参考訳(メタデータ) (2024-12-16T14:23:31Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Efficient Hardware Acceleration of Sparsely Active Convolutional Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、標準のニューラルネットワークよりも効率的な計算を実現するために、イベントベースで計算する。
本稿では,高いアクティベーション間隔を有する畳み込みSNNの処理に最適化された新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-23T14:18:58Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。