論文の概要: THOR -- A Neuromorphic Processor with 7.29G TSOP$^2$/mm$^2$Js
Energy-Throughput Efficiency
- arxiv url: http://arxiv.org/abs/2212.01696v1
- Date: Sat, 3 Dec 2022 21:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:47:33.572672
- Title: THOR -- A Neuromorphic Processor with 7.29G TSOP$^2$/mm$^2$Js
Energy-Throughput Efficiency
- Title(参考訳): THOR -- 7.29G TSOP$^2$/mm$^2$Jsエネルギー消費効率を有するニューロモルフィックプロセッサ
- Authors: Mayank Senapati, Manil Dev Gomony, Sherif Eissa, Charlotte Frenkel,
and Henk Corporaal
- Abstract要約: 生物学的にインスパイアされたスパイキングニューラルネットワーク(SNN)を用いたニューロモルフィックコンピューティングは、エッジコンピューティングデバイスに必要なエネルギ・スループ(ET)効率を満たすための有望なソリューションである。
我々は、エネルギー消費とスループットのボトルネックに対処する新しいメモリ階層とニューロン更新アーキテクチャを備えた全デジタルニューロモルフィックプロセッサTHORを提案する。
- 参考スコア(独自算出の注目度): 2.260725478207432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic computing using biologically inspired Spiking Neural Networks
(SNNs) is a promising solution to meet Energy-Throughput (ET) efficiency needed
for edge computing devices. Neuromorphic hardware architectures that emulate
SNNs in analog/mixed-signal domains have been proposed to achieve
order-of-magnitude higher energy efficiency than all-digital architectures,
however at the expense of limited scalability, susceptibility to noise, complex
verification, and poor flexibility. On the other hand, state-of-the-art digital
neuromorphic architectures focus either on achieving high energy efficiency
(Joules/synaptic operation (SOP)) or throughput efficiency (SOPs/second/area),
resulting in poor ET efficiency. In this work, we present THOR, an all-digital
neuromorphic processor with a novel memory hierarchy and neuron update
architecture that addresses both energy consumption and throughput bottlenecks.
We implemented THOR in 28nm FDSOI CMOS technology and our post-layout results
demonstrate an ET efficiency of 7.29G $\text{TSOP}^2/\text{mm}^2\text{Js}$ at
0.9V, 400 MHz, which represents a 3X improvement over state-of-the-art digital
neuromorphic processors.
- Abstract(参考訳): 生物学的にインスパイアされたスパイクニューラルネットワーク(snn)を用いたニューロモルフィックコンピューティングは、エッジコンピューティングデバイスに必要なエネルギスルー(et)効率を満たす有望なソリューションである。
snnをアナログ/混合信号領域でエミュレートするニューロモルフィックなハードウェアアーキテクチャは、全デジタルアーキテクチャよりも桁違いに高エネルギー効率を実現するために提案されているが、拡張性、ノイズ感受性、複雑な検証、柔軟性の低下を犠牲にしている。
一方、最先端のディジタルニューロモルフィックアーキテクチャは高エネルギー効率(ジュール/シナプス演算(SOP))かスループット効率(SOP/秒/領域)に重点を置いており、ET効率は低い。
本稿では、エネルギー消費とスループットのボトルネックに対処する新しいメモリ階層とニューロン更新アーキテクチャを備えた全デジタルニューロモルフィックプロセッサTHORを提案する。
我々は28nm FDSOI CMOS技術でTHORを実装し,そのET効率を7.29G $\text{TSOP}^2/\text{mm}^2\text{Js}$ at 0.9V, 400 MHzで実証した。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - Spikformer: When Spiking Neural Network Meets Transformer [102.91330530210037]
本稿では,スパイキングニューラルネットワーク(SNN)と自己認識機構という,生物学的にもっとも有効な2つの構造について考察する。
我々は、スパイキング・セルフ・アテンション(SSA)と、スパイキング・トランスフォーマー(Spikformer)という強力なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T14:16:49Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Design of Many-Core Big Little \mu Brain for Energy-Efficient Embedded
Neuromorphic Computing [0.9349784561232036]
深層畳み込みニューラルネットワーク(SDCNN)の計算を高速化するために,$muBrainベースのスケーラブル多コアニューロモルフィックハードウェアを提案する。
提案手法はエネルギー(37%から98%)を削減し、レイテンシ(9%から25%)を低減し、アプリケーションスループット(20%から36%)を向上することを示した。
論文 参考訳(メタデータ) (2021-11-23T13:04:45Z) - A Spiking Neural Network for Image Segmentation [3.4998703934432682]
我々は,深層ニューラルネットワーク(ANN)アーキテクチャのU-Netを,Nengoフレームワークを用いたスパイキングニューラルネットワーク(SNN)アーキテクチャに変換する。
レートベースモデルとスパイクベースモデルの両方がトレーニングされ、パフォーマンスとパワーのベンチマークに最適化されている。
Intel Loihiのニューロモルフィックチップのニューロモルフィック実装は、従来のハードウェアよりも2倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2021-06-16T16:23:18Z) - A 28-nm Convolutional Neuromorphic Processor Enabling Online Learning
with Spike-Based Retinas [1.4425878137951236]
適応エッジコンピューティングとビジョンアプリケーションのための28nmイベント駆動CNN(eCNN)であるSPOONを提案する。
16.8-%のパワーと11.8-%のオーバヘッドしか持たないオンライン学習を、生物学的に証明可能な直接ランダムターゲットプロジェクション(DRTP)アルゴリズムで埋め込んでいる。
0.6Vでの313nJの分類あたりのエネルギーと95.3%(オンチップトレーニング)と97.5%(オフチップトレーニング)のアキュラシーに対する0.32-mm$2$の面積で、SPOONが従来の機械学習アクセラレータの効率に達することを示した。
論文 参考訳(メタデータ) (2020-05-13T13:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。