論文の概要: Spiffy: Efficient Implementation of CoLaNET for Raspberry Pi
- arxiv url: http://arxiv.org/abs/2506.18306v1
- Date: Mon, 23 Jun 2025 05:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.869066
- Title: Spiffy: Efficient Implementation of CoLaNET for Raspberry Pi
- Title(参考訳): Spiffy: Raspberry Pi用のCoLaNETの効率的な実装
- Authors: Andrey Derzhavin, Denis Larionov,
- Abstract要約: 本稿では、特殊なニューロモーフィックハードウェアやフレームワークに頼ることなく、スパイキングニューラルネットワーク(SNN)を実行するためのソフトウェアベースのアプローチを提案する。
Rustに特定のSNNアーキテクチャ(CoLaNET)を実装し、共通コンピューティングプラットフォーム向けに最適化します。
ケーススタディでは、MNISTデータセットを使用してRaspberry Pi上でSpiffyと呼ばれる実装を実演する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a lightweight software-based approach for running spiking neural networks (SNNs) without relying on specialized neuromorphic hardware or frameworks. Instead, we implement a specific SNN architecture (CoLaNET) in Rust and optimize it for common computing platforms. As a case study, we demonstrate our implementation, called Spiffy, on a Raspberry Pi using the MNIST dataset. Spiffy achieves 92% accuracy with low latency - just 0.9 ms per training step and 0.45 ms per inference step. The code is open-source.
- Abstract(参考訳): 本稿では、特殊なニューロモーフィックハードウェアやフレームワークに頼ることなく、スパイキングニューラルネットワーク(SNN)を実行するための軽量なソフトウェアベースのアプローチを提案する。
代わりに、Rustに特定のSNNアーキテクチャ(CoLaNET)を実装し、共通のコンピューティングプラットフォーム向けに最適化します。
ケーススタディでは、MNISTデータセットを使用してRaspberry Pi上でSpiffyと呼ばれる実装を実演する。
Spiffyは低レイテンシで92%の精度を実現している。トレーニングステップは0.9ms、推論ステップは0.45msだ。
コードはオープンソースです。
関連論文リスト
- LightSNN: Lightweight Architecture Search for Sparse and Accurate Spiking Neural Networks [1.0485739694839666]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率、固有の活性化空間、エッジデバイスにおけるリアルタイム処理に適していると高く評価されている。
現在のほとんどのSNNメソッドは、従来の人工知能ニューラルネットワーク(ANN)に似たアーキテクチャを採用している。
本稿では,高速かつ効率的なニューラルネットワークアーキテクチャ探索(NAS)技術であるLightSNNについて述べる。
論文 参考訳(メタデータ) (2025-03-27T16:38:13Z) - RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - Neural Architecture Search: Two Constant Shared Weights Initialisations [0.0]
エプシナス(Epsinas)は、2つの一定の共有重み付け初期化とそれらの出力統計を用いてアーキテクチャポテンシャルを評価する新しいゼロコストNAS計量である。
平均等級で正規化された原出力の分散は、訓練された精度と強く相関していることを示す。
我々の計算では、データラベルは必要とせず、単一のミニバッチで動作し、勾配の必要がなくなる。
論文 参考訳(メタデータ) (2023-02-09T02:25:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。