論文の概要: SPARQ: Spiking Early-Exit Neural Networks for Energy-Efficient Edge AI
- arxiv url: http://arxiv.org/abs/2603.14380v1
- Date: Sun, 15 Mar 2026 13:38:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.783269
- Title: SPARQ: Spiking Early-Exit Neural Networks for Energy-Efficient Edge AI
- Title(参考訳): SPARQ:エネルギー効率の良いエッジAIのための初期のニューラルネットワークをスパイク
- Authors: Parth Patne, Mahdi Taheri, Ali Mahani, Maksim Jenihhin, Reza Mahani, Christian Herglotz,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、イベント駆動型計算モデルにより、固有のエネルギー効率を提供する。
この研究は、スパイキング、量子化対応トレーニング、強化学習誘導早期出口を統合し、効率的で適応的な推論を行う統合フレームワークであるSPARQを提示する。
- 参考スコア(独自算出の注目度): 2.2914260353572513
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking neural networks (SNNs) offer inherent energy efficiency due to their event-driven computation model, making them promising for edge AI deployment. However, their practical adoption is limited by the computational overhead of deep architectures and the absence of input-adaptive control. This work presents SPARQ, a unified framework that integrates spiking computation, quantization-aware training, and reinforcement learning-guided early exits for efficient and adaptive inference. Evaluations across MLP, LeNet, and AlexNet architectures demonstrated that the proposed Quantised Dynamic SNNs (QDSNN) consistently outperform conventional SNNs and QSNNs, achieving up to 5.15% higher accuracy over QSNNs, over 330 times lower system energy compared to baseline SNNs, and over 90 percent fewer synaptic operations across different datasets. These results validate SPARQ as a hardware-friendly, energy-efficient solution for real-time AI at the edge.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、イベント駆動型計算モデルによる固有のエネルギー効率を提供し、エッジAIデプロイメントを約束する。
しかし、それらの実践的採用は、深層アーキテクチャの計算オーバーヘッドと入力適応制御の欠如によって制限されている。
この研究は、スパイキング計算、量子化対応トレーニング、学習誘導型早期出口を統合し、効率的かつ適応的な推論を行う統合フレームワークであるSPARQを提示する。
MLP、LeNet、AlexNetアーキテクチャによる評価では、提案された量子動的SNN(QDSNN)は、従来のSNNやQSNNよりも一貫して優れており、QSNNよりも最大で5.15%高い精度、ベースラインのSNNよりも330倍低いシステムエネルギー、異なるデータセットでのシナプス操作を90%以上削減している。
これらの結果は、エッジにおけるリアルタイムAIのためのハードウェアフレンドリーでエネルギー効率の良いソリューションとしてSPARQを検証する。
関連論文リスト
- The Enduring Dominance of Deep Neural Networks: A Critical Analysis of the Fundamental Limitations of Quantum Machine Learning and Spiking Neural Networks [0.0]
QMLとSNNの最近の進歩は、かなりの興奮を引き起こしている。
本稿は、DNNを短期的に置き換えることはありそうにない、と論じる。
DNNは、効率的なバックプロパゲーション、堅牢な正規化、およびスケーリングを推論時間計算にシフトするLEMのイノベーションを活用する。
論文 参考訳(メタデータ) (2025-10-04T11:00:46Z) - QP-SNN: Quantized and Pruned Spiking Neural Networks [10.74122828236122]
スパイキングニューラルネットワーク(SNN)はスパイクを利用して情報をエンコードし、イベント駆動方式で運用する。
資源限定シナリオにおいて,高性能なSNNを効果的に展開することを目的とした,ハードウェアフレンドリで軽量なSNNを提案する。
論文 参考訳(メタデータ) (2025-02-09T13:50:59Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - FSpiNN: An Optimization Framework for Memory- and Energy-Efficient
Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパイクタイピング依存の可塑性(STDP)ルールのために教師なし学習機能を提供する。
しかし、最先端のSNNは高い精度を達成するために大きなメモリフットプリントを必要とする。
トレーニングおよび推論処理のためのメモリ効率とエネルギー効率のよいSNNを得るための最適化フレームワークFSpiNNを提案する。
論文 参考訳(メタデータ) (2020-07-17T09:40:26Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。