論文の概要: A Multi-Threading Kernel for Enabling Neuromorphic Edge Applications
- arxiv url: http://arxiv.org/abs/2510.17745v1
- Date: Mon, 20 Oct 2025 17:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.538435
- Title: A Multi-Threading Kernel for Enabling Neuromorphic Edge Applications
- Title(参考訳): ニューロモルフィックエッジ応用のためのマルチスレッドカーネル
- Authors: Lars Niedermeier, Vyom Shah, Jeffrey L. Krichmar,
- Abstract要約: 本稿では,エッジ上で動作するニューロモルフィックアプリケーションを実現するマルチスレッドカーネルを提案する。
カーネルはシングルスレッド処理よりも、中程度のサイズのSNNでは4倍、シンファイアネットワークでは1.7Xで高速化されている。
- 参考スコア(独自算出の注目度): 2.838842554577539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) have sparse, event driven processing that can leverage neuromorphic applications. In this work, we introduce a multi-threading kernel that enables neuromorphic applications running at the edge, meaning they process sensory input directly and without any up-link to or dependency on a cloud service. The kernel shows speed-up gains over single thread processing by a factor of four on moderately sized SNNs and 1.7X on a Synfire network. Furthermore, it load-balances all cores available on multi-core processors, such as ARM, which run today's mobile devices and is up to 70% more energy efficient compared to statical core assignment. The present work can enable the development of edge applications that have low Size, Weight, and Power (SWaP), and can prototype the integration of neuromorphic chips.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックな応用を活用できるスパースなイベント駆動処理を持つ。
本研究では、エッジで動作するニューロモルフィックアプリケーションを可能にするマルチスレッドカーネルを導入し、クラウドサービスへのアップリンクや依存を伴わずに、センサ入力を直接処理する。
カーネルはシングルスレッド処理よりも、中程度のサイズのSNNでは4倍、シンファイアネットワークでは1.7Xで高速化されている。
さらに、今日のモバイルデバイスで動作するARMなど、マルチコアプロセッサで利用可能なすべてのコアをロードバランスさせ、静的コア割り当てよりも最大70%エネルギー効率が向上する。
本研究は,SWaP(Size, Weight, and Power)の少ないエッジアプリケーションの開発を可能にし,ニューロモルフィックチップの統合のプロトタイプ化を可能にする。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - An Asynchronous Multi-core Accelerator for SNN inference [26.81434114127108]
スパイキングニューラルネットワーク(SNN)は脳にインスパイアされたコンピューティングと神経科学の研究に広く利用されている。
我々のアーキテクチャは、最先端同期アーキテクチャと比較して1.86倍の高速化と1.55倍のエネルギー効率向上を実現している。
論文 参考訳(メタデータ) (2024-07-30T16:25:38Z) - Micro-power spoken keyword spotting on Xylo Audio 2 [0.0]
本稿では,Xylo Audio 2 (SYNS61210) のニューロモーフィックプロセッサ上での音声キーワードスポッティングベンチマーク "Aloha" の実装について述べる。
95%) の高展開量化タスクの精度が, ベンチマークタスクの精度を上回った。
我々は、クラス最高の動的推論パワー(291mu$W)とクラス最高の推論効率(6.6mu$J / Inf)を得た。
論文 参考訳(メタデータ) (2024-06-21T12:59:37Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Drastically Reducing the Number of Trainable Parameters in Deep CNNs by
Inter-layer Kernel-sharing [0.4129225533930965]
ディープ畳み込みニューラルネットワーク(DCNN)は多くのコンピュータビジョンタスクの最先端(SOTA)アプローチとなっている。
ここでは、トレーニング可能なパラメータの数とメモリフットプリントを削減し、複数の畳み込み層間でカーネルを共有する簡単な方法を提案する。
論文 参考訳(メタデータ) (2022-10-23T18:14:30Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Design of Many-Core Big Little \mu Brain for Energy-Efficient Embedded
Neuromorphic Computing [0.9349784561232036]
深層畳み込みニューラルネットワーク(SDCNN)の計算を高速化するために,$muBrainベースのスケーラブル多コアニューロモルフィックハードウェアを提案する。
提案手法はエネルギー(37%から98%)を削減し、レイテンシ(9%から25%)を低減し、アプリケーションスループット(20%から36%)を向上することを示した。
論文 参考訳(メタデータ) (2021-11-23T13:04:45Z) - Reliability-Performance Trade-offs in Neuromorphic Computing [0.30458514384586394]
非揮発性メモリ(NVM)で構築されたニューロモルフィックアーキテクチャは、スパイキングニューラルネットワーク(SNN)で設計された機械学習タスクのエネルギー効率を大幅に改善する。
寄生電圧低下は, クロスバー内のNVMセルのプログラミング速度と信頼性において, 顕著な非対称性を生じさせる。
ニューロモルフィックアーキテクチャにおけるこの非対称性は信頼性と性能のトレードオフを生み出し、SNNマッピング技術を用いて効率的に利用することができる。
論文 参考訳(メタデータ) (2020-09-26T19:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。