論文の概要: Eventprop training for efficient neuromorphic applications
- arxiv url: http://arxiv.org/abs/2503.04341v1
- Date: Thu, 06 Mar 2025 11:38:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:00:30.793587
- Title: Eventprop training for efficient neuromorphic applications
- Title(参考訳): 効率的なニューロモルフィック応用のためのイベントプロップトレーニング
- Authors: Thomas Shoesmith, James C. Knight, Balázs Mészáros, Jonathan Timcheck, Thomas Nowotny,
- Abstract要約: 我々は,mlGeNNで実装されたイベント駆動イベントプロップアルゴリズムを用いて,GPU上でのスパイクニューラルネットワークのトレーニングパイプラインを提案する。
キーワードスポッティングタスクのベンチマークでは、GPUとLoihi 2の実装の間には精度がほとんど失われていないことが示されている。
Loihi 2でサンプルを分類するのは最大10倍速く、NVIDIA Jetson Orin Nanoより200倍少ないエネルギーを使用する。
- 参考スコア(独自算出の注目度): 0.9138341348704225
- License:
- Abstract: Neuromorphic computing can reduce the energy requirements of neural networks and holds the promise to `repatriate' AI workloads back from the cloud to the edge. However, training neural networks on neuromorphic hardware has remained elusive. Here, we instead present a pipeline for training spiking neural networks on GPUs, using the efficient event-driven Eventprop algorithm implemented in mlGeNN, and deploying them on Intel's Loihi 2 neuromorphic chip. Our benchmarking on keyword spotting tasks indicates that there is almost no loss in accuracy between GPU and Loihi 2 implementations and that classifying a sample on Loihi 2 is up to 10X faster and uses 200X less energy than on an NVIDIA Jetson Orin Nano.
- Abstract(参考訳): ニューロモルフィックコンピューティングは、ニューラルネットワークのエネルギー要件を削減し、AIワークロードをクラウドからエッジに"リリート"することを約束する。
しかし、ニューロモルフィックハードウェア上でのニューラルネットワークのトレーニングは、いまだ解明されていない。
ここでは、mlGeNNで実装された効率的なイベント駆動Eventpropアルゴリズムを使用して、GPU上でスパイクニューラルネットワークをトレーニングするためのパイプラインを提示し、それをIntelのLoihi 2ニューロモルフィックチップにデプロイする。
キーワードスポッティングタスクのベンチマークでは、GPUとLoihi 2実装の間には精度がほとんど失われておらず、Loihi 2のサンプルの分類はNVIDIA Jetson Orin Nanoよりも最大10倍速く、200倍少ないエネルギーを使用することを示している。
関連論文リスト
- Event-based backpropagation on the neuromorphic platform SpiNNaker2 [1.0597501054401728]
EventPropはスパイクニューラルネットワーク(SNN)におけるイベントベースのバックプロパゲーションのためのアルゴリズム
本実装では, 微分方程式とその共役の離散バージョンを用いて, 漏洩した積分・発火ニューロンの多層ネットワークを計算した。
我々は,Yin Yangデータセットを用いたSNNのバッチ並列化オンチップトレーニングの概念実証を行った。
論文 参考訳(メタデータ) (2024-12-19T16:31:42Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Loss shaping enhances exact gradient learning with Eventprop in spiking neural networks [0.1350479308585481]
Eventpropは、スパイキングニューラルネットワークの正確な勾配の勾配勾配のアルゴリズムである。
我々は、GPU強化ニューラルネットワークフレームワークにEventpropを実装した。
Spiking Heidelberg DigitsとSpking Speech Commandsデータセットで、スパイクニューラルネットワークをトレーニングします。
論文 参考訳(メタデータ) (2022-12-02T15:20:58Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - A Spiking Neural Network for Image Segmentation [3.4998703934432682]
我々は,深層ニューラルネットワーク(ANN)アーキテクチャのU-Netを,Nengoフレームワークを用いたスパイキングニューラルネットワーク(SNN)アーキテクチャに変換する。
レートベースモデルとスパイクベースモデルの両方がトレーニングされ、パフォーマンスとパワーのベンチマークに最適化されている。
Intel Loihiのニューロモルフィックチップのニューロモルフィック実装は、従来のハードウェアよりも2倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2021-06-16T16:23:18Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。