論文の概要: Design of Many-Core Big Little \mu Brain for Energy-Efficient Embedded
Neuromorphic Computing
- arxiv url: http://arxiv.org/abs/2111.11838v1
- Date: Tue, 23 Nov 2021 13:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 02:16:43.440480
- Title: Design of Many-Core Big Little \mu Brain for Energy-Efficient Embedded
Neuromorphic Computing
- Title(参考訳): エネルギー効率の良い埋め込み型ニューロモルフィックコンピューティングのための多心小脳の設計
- Authors: M. Lakshmi Varshika, Adarsha Balaji, Federico Corradi, Anup Das, Jan
Stuijt, Francky Catthoor
- Abstract要約: 深層畳み込みニューラルネットワーク(SDCNN)の計算を高速化するために,$muBrainベースのスケーラブル多コアニューロモルフィックハードウェアを提案する。
提案手法はエネルギー(37%から98%)を削減し、レイテンシ(9%から25%)を低減し、アプリケーションスループット(20%から36%)を向上することを示した。
- 参考スコア(独自算出の注目度): 0.9349784561232036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As spiking-based deep learning inference applications are increasing in
embedded systems, these systems tend to integrate neuromorphic accelerators
such as $\mu$Brain to improve energy efficiency. We propose a $\mu$Brain-based
scalable many-core neuromorphic hardware design to accelerate the computations
of spiking deep convolutional neural networks (SDCNNs). To increase energy
efficiency, cores are designed to be heterogeneous in terms of their neuron and
synapse capacity (big cores have higher capacity than the little ones), and
they are interconnected using a parallel segmented bus interconnect, which
leads to lower latency and energy compared to a traditional mesh-based
Network-on-Chip (NoC). We propose a system software framework called SentryOS
to map SDCNN inference applications to the proposed design. SentryOS consists
of a compiler and a run-time manager. The compiler compiles an SDCNN
application into subnetworks by exploiting the internal architecture of big and
little $\mu$Brain cores. The run-time manager schedules these sub-networks onto
cores and pipeline their execution to improve throughput. We evaluate the
proposed big little many-core neuromorphic design and the system software
framework with five commonlyused SDCNN inference applications and show that the
proposed solution reduces energy (between 37% and 98%), reduces latency
(between 9% and 25%), and increases application throughput (between 20% and
36%). We also show that SentryOS can be easily extended for other spiking
neuromorphic accelerators.
- Abstract(参考訳): スパイクに基づくディープラーニング推論の応用が組込みシステムで増加しているため、これらのシステムはエネルギー効率を改善するために$\mu$Brainのようなニューロモルフィックアクセラレータを統合する傾向がある。
我々は,sdcnn(spyking deep convolutional neural networks)の計算を高速化するために,$\mu$brainに基づくスケーラブルな多コアニューロモルフィックハードウェア設計を提案する。
エネルギー効率を向上させるため、コアはニューロンとシナプス容量(大きなコアは小さなコアよりも高い容量)で異質に設計されており、並列セグメントバス相互接続によって相互接続され、従来のメッシュベースのネットワークオンチップ(NoC)と比較してレイテンシとエネルギーが低下する。
本稿では,SDCNN推論アプリケーションを設計にマップするシステムソフトウェアフレームワークであるSentryOSを提案する。
SentryOSはコンパイラとランタイムマネージャで構成される。
コンパイラは、大小$\mu$Brainコアの内部アーキテクチャを利用して、SDCNNアプリケーションをサブネットワークにコンパイルする。
ランタイムマネージャはこれらのサブネットワークをコアにスケジュールし、実行をパイプラインしてスループットを向上させる。
提案する大小多核ニューロモルフィック設計と5つの一般的なsdcnn推論アプリケーションを用いたシステムソフトウェアフレームワークを評価し,提案手法がエネルギー(37%から98%)を削減し,レイテンシ(9%から25%)を低減し,アプリケーションスループット(20%から36%)を増加させることを示した。
また,SentryOSを他のスパイク神経変成促進剤に容易に拡張できることが示唆された。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - A Spiking Neural Network for Image Segmentation [3.4998703934432682]
我々は,深層ニューラルネットワーク(ANN)アーキテクチャのU-Netを,Nengoフレームワークを用いたスパイキングニューラルネットワーク(SNN)アーキテクチャに変換する。
レートベースモデルとスパイクベースモデルの両方がトレーニングされ、パフォーマンスとパワーのベンチマークに最適化されている。
Intel Loihiのニューロモルフィックチップのニューロモルフィック実装は、従来のハードウェアよりも2倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2021-06-16T16:23:18Z) - Reliability-Performance Trade-offs in Neuromorphic Computing [0.30458514384586394]
非揮発性メモリ(NVM)で構築されたニューロモルフィックアーキテクチャは、スパイキングニューラルネットワーク(SNN)で設計された機械学習タスクのエネルギー効率を大幅に改善する。
寄生電圧低下は, クロスバー内のNVMセルのプログラミング速度と信頼性において, 顕著な非対称性を生じさせる。
ニューロモルフィックアーキテクチャにおけるこの非対称性は信頼性と性能のトレードオフを生み出し、SNNマッピング技術を用いて効率的に利用することができる。
論文 参考訳(メタデータ) (2020-09-26T19:38:18Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。