論文の概要: Hardware-Aware Fine-Tuning of Spiking Q-Networks on the SpiNNaker2 Neuromorphic Platform
- arxiv url: http://arxiv.org/abs/2507.23562v1
- Date: Thu, 31 Jul 2025 13:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.830713
- Title: Hardware-Aware Fine-Tuning of Spiking Q-Networks on the SpiNNaker2 Neuromorphic Platform
- Title(参考訳): SpiNNaker2ニューロモルフィックプラットフォーム上でのスパイクQネットワークのハードウェア対応ファインチューニング
- Authors: Sirine Arfa, Bernhard Vogginger, Christian Mayr,
- Abstract要約: Spiking Neural Networks(SNN)は、幅広いロボットタスクのためのニューロモルフィックハードウェアに対するレイテンシの低い消費電力と低いマグニチュード推論を約束する。
本稿では,2つの古典的制御課題を解決するために,量子化されたSNNを用いた強化学習(RL)アルゴリズムをエネルギー効率よく実装する。
このネットワークはQ-learningアルゴリズムを用いて訓練され、SpiNNaker2ニューロモルフィックチップに組み込むための微調整と量子化を低ビット(8ビット)の精度で行う。
- 参考スコア(独自算出の注目度): 1.210742213461011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) promise orders-of-magnitude lower power consumption and low-latency inference on neuromorphic hardware for a wide range of robotic tasks. In this work, we present an energy-efficient implementation of a reinforcement learning (RL) algorithm using quantized SNNs to solve two classical control tasks. The network is trained using the Q-learning algorithm, then fine-tuned and quantized to low-bit (8-bit) precision for embedded deployment on the SpiNNaker2 neuromorphic chip. To evaluate the comparative advantage of SpiNNaker2 over conventional computing platforms, we analyze inference latency, dynamic power consumption, and energy cost per inference for our SNN models, comparing performance against a GTX 1650 GPU baseline. Our results demonstrate SpiNNaker2's strong potential for scalable, low-energy neuromorphic computing, achieving up to 32x reduction in energy consumption. Inference latency remains on par with GPU-based execution, with improvements observed in certain task settings, reinforcing SpiNNaker2's viability for real-time neuromorphic control and making the neuromorphic approach a compelling direction for efficient deep Q-learning.
- Abstract(参考訳): Spiking Neural Networks (SNN)は、幅広いロボットタスクのためのニューロモルフィックハードウェア上での消費電力と低レイテンシ推論の命令を約束する。
本研究では,2つの古典的制御課題を解決するために,量子化されたSNNを用いた強化学習(RL)アルゴリズムをエネルギー効率よく実装する。
このネットワークはQ-learningアルゴリズムを用いて訓練され、SpiNNaker2ニューロモルフィックチップに組み込むための微調整と量子化を低ビット(8ビット)の精度で行う。
従来のコンピューティングプラットフォームと比較してSpiNNaker2の利点を評価するため、GTX 1650 GPUベースラインと比較して、SNNモデルにおける推論遅延、動的電力消費、および推論毎のエネルギーコストを分析した。
以上の結果から,SpiNNaker2は拡張性,低エネルギーのニューロモルフィックコンピューティングにおいて,最大32倍のエネルギー消費を達成できる可能性が示唆された。
推論レイテンシはGPUベースの実行と同等であり、特定のタスク設定で改善が観察され、リアルタイムのニューロモルフィック制御に対するSpiNNaker2の生存性が強化され、ニューロモルフィックアプローチが効率的なQ-ラーニングのための魅力的な方向になる。
関連論文リスト
- Energy efficiency analysis of Spiking Neural Networks for space applications [43.91307921405309]
スパイキングニューラルネットワーク(SNN)は理論的に優れたエネルギー効率のために非常に魅力的である。
本研究では,EuroSATデータセットのシーン分類に応用したSNN手法の数値解析と比較を行う。
論文 参考訳(メタデータ) (2025-05-16T16:29:50Z) - Efficient Deployment of Spiking Neural Networks on SpiNNaker2 for DVS Gesture Recognition Using Neuromorphic Intermediate Representation [2.649410674489787]
スパイキングニューラルネットワーク(SNN)は、推論時に非常にエネルギー効率が高い。
ダイナミックビジョンセンサー(DVS)のデータなどのイベント駆動入力を処理する能力により、エッジコンピューティングタスクへの適用性はさらに向上する。
マルチコアニューロモルフィックチップSpiNNaker2に最適化されたSNNを用いたDVSジェスチャー認識タスクの最初のベンチマークを示す。
論文 参考訳(メタデータ) (2025-04-09T10:09:29Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Q-SNNs: Quantized Spiking Neural Networks [12.719590949933105]
スパイキングニューラルネットワーク(SNN)はスパーススパイクを利用して情報を表現し、イベント駆動方式で処理する。
シナプス重みと膜電位の両方に量子化を適用する軽量でハードウェアフレンドリな量子化SNNを提案する。
本稿では,情報エントロピー理論にインスパイアされた新しいウェイトスパイクデュアルレギュレーション(WS-DR)法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:23:26Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - A Spiking Neural Network for Image Segmentation [3.4998703934432682]
我々は,深層ニューラルネットワーク(ANN)アーキテクチャのU-Netを,Nengoフレームワークを用いたスパイキングニューラルネットワーク(SNN)アーキテクチャに変換する。
レートベースモデルとスパイクベースモデルの両方がトレーニングされ、パフォーマンスとパワーのベンチマークに最適化されている。
Intel Loihiのニューロモルフィックチップのニューロモルフィック実装は、従来のハードウェアよりも2倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2021-06-16T16:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。