論文の概要: Lightweight LIF-only SNN accelerator using differential time encoding
- arxiv url: http://arxiv.org/abs/2505.11252v1
- Date: Fri, 16 May 2025 13:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.172366
- Title: Lightweight LIF-only SNN accelerator using differential time encoding
- Title(参考訳): 差分時間符号化を用いた軽量LIF専用SNN加速器
- Authors: Daniel Windhager, Lothar Ratschbacher, Bernhard A. Moser, Michael Lunglmayr,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、現代の機械学習(ML)アプリケーションにおいて、計算とエネルギーの要求を増大させる問題に対して、有望な解決策を提供する。
スパイクとスパイクトレインを使用する独自のデータ表現の選択のため、彼らは主に、最先端(SOTA)人工ニューラルネットワーク(ANN)に近づく結果を達成するために追加としきい値操作に依存している。
この研究は、LIFのみのSNNをフィードフォワードで計算できるハードウェアアクセラレーターアーキテクチャと、既存のデータをスパイクトレインに効率的にエンコードするための符号化手法を導入する。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a promising solution to the problem of increasing computational and energy requirements for modern Machine Learning (ML) applications. Due to their unique data representation choice of using spikes and spike trains, they mostly rely on additions and thresholding operations to achieve results approaching state-of-the-art (SOTA) Artificial Neural Networks (ANNs). This advantage is hindered by the fact that their temporal characteristic does not map well to already existing accelerator hardware like GPUs. Therefore, this work will introduce a hardware accelerator architecture capable of computing feedforward LIF-only SNNs, as well as an accompanying encoding method to efficiently encode already existing data into spike trains. Together, this leads to a design capable of >99% accuracy on the MNIST dataset, with ~0.29ms inference times on a Xilinx Ultrascale+ FPGA, as well as ~0.17ms on a custom ASIC using the open-source predictive 7nm ASAP7 PDK. Furthermore, this work will showcase the advantages of the previously presented differential time encoding for spikes, as well as provide proof that merging spikes from different synapses given in differential time encoding can be done efficiently in hardware.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、現代の機械学習(ML)アプリケーションにおいて、計算とエネルギーの要求を増大させる問題に対して、有望な解決策を提供する。
スパイクとスパイクトレインを使用する独自のデータ表現の選択のため、彼らは主に、最先端(SOTA)人工ニューラルネットワーク(ANN)に近づく結果を達成するために追加としきい値操作に依存している。
この利点は、その時間特性がGPUのような既存のアクセラレータハードウェアにうまく対応していないという事実によって妨げられている。
そこで本研究では、LIFのみのSNNをフィードフォワードで計算できるハードウェアアクセラレータアーキテクチャと、既存のデータをスパイクトレインに効率的にエンコードするための符号化手法を導入する。
これにより、Xilinx Ultrascale+ FPGA上の0.29msの推論時間と、オープンソースの7nm ASAP7 PDKを使用したASIC上の0.17msの精度で、MNISTデータセット上の99%の精度で設計できる。
さらに、この研究は、以前に提示されたスパイクの差分時間エンコーディングの利点を示し、また、差分時間エンコーディングで与えられる異なるシナプスからのスパイクのマージをハードウェアで効率的に行うことができることを示す。
関連論文リスト
- Spiking Neural Network Accelerator Architecture for Differential-Time Representation using Learned Encoding [0.3749861135832073]
スパイキングニューラルネットワーク(SNN)はエネルギー効率の向上により近年注目を集めている。
SNNを実装する際の2つの重要な疑問は、既存のデータをスパイクトレインにエンコードする方法と、スパイクトレインをハードウェアで効率的に処理する方法である。
本稿では,これらの問題に,学習プロセスにエンコーディングを組み込むことで対処し,ネットワークが重みとともにスパイクエンコーディングを学習できるようにする。
論文 参考訳(メタデータ) (2025-01-14T09:09:08Z) - Optimizing Spatio-Temporal Information Processing in Spiking Neural Networks via Unconstrained Leaky Integrate-and-Fire Neurons and Hybrid Coding [0.0]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)と比較してエネルギー効率が高い
SNNは、時間情報を処理する能力という重要な特徴を持っている。
本稿では,時間ステップの異なるUnconstrained Integrate-and-Fire(ULIF)ニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T13:58:35Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Training Energy-Efficient Deep Spiking Neural Networks with Single-Spike
Hybrid Input Encoding [5.725845886457027]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型ニューロモルフィックハードウェアにおいて高い計算効率を提供する。
SNNは、非効率な入力符号化とトレーニング技術により、高い推論遅延に悩まされる。
本稿では低遅延エネルギー効率SNNのためのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-26T06:16:40Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Efficient Spiking Neural Networks with Radix Encoding [35.79325964767678]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)よりもレイテンシとエネルギー効率に利点がある
本稿では,超短スパイク列車を用いたSNNのラジックス符号化を提案する。
実験の結果,VGG-16ネットワークアーキテクチャとCIFAR-10データセットの最先端技術と比較すると,精度は25倍,精度は1.1%向上した。
論文 参考訳(メタデータ) (2021-05-14T16:35:53Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。