論文の概要: Vega: A 10-Core SoC for IoT End-Nodes with DNN Acceleration and
Cognitive Wake-Up From MRAM-Based State-Retentive Sleep Mode
- arxiv url: http://arxiv.org/abs/2110.09101v1
- Date: Mon, 18 Oct 2021 08:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:43:14.174120
- Title: Vega: A 10-Core SoC for IoT End-Nodes with DNN Acceleration and
Cognitive Wake-Up From MRAM-Based State-Retentive Sleep Mode
- Title(参考訳): Vega: DNNアクセラレーションとMRAMベースのステートリテンティブスリープモードによる認知ウェイクアップを備えたIoTエンドノード用の10コアSoC
- Authors: Davide Rossi, Francesco Conti, Manuel Eggimann, Alfio Di Mauro,
Giuseppe Tagliavini, Stefan Mach, Marco Guermandi, Antonio Pullini, Igor Loi,
Jie Chen, Eric Flamand, Luca Benini
- Abstract要約: Vegaは1.7ドルのMathrmmuWから32.2 GOPS (@ 49.4 mW)ピークまで、NSAA上でスケールアップ可能なIoTエンドノードシステムである。
ベガは8ビットINTで615 GOPS/W、32ビットと16ビットFPで79と129 GFLOPS/WのSoAリード効率を達成する。
- 参考スコア(独自算出の注目度): 14.214500730272256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Internet-of-Things requires end-nodes with ultra-low-power always-on
capability for a long battery lifetime, as well as high performance, energy
efficiency, and extreme flexibility to deal with complex and fast-evolving
near-sensor analytics algorithms (NSAAs). We present Vega, an IoT end-node SoC
capable of scaling from a 1.7 $\mathrm{\mu}$W fully retentive cognitive sleep
mode up to 32.2 GOPS (@ 49.4 mW) peak performance on NSAAs, including mobile
DNN inference, exploiting 1.6 MB of state-retentive SRAM, and 4 MB of
non-volatile MRAM. To meet the performance and flexibility requirements of
NSAAs, the SoC features 10 RISC-V cores: one core for SoC and IO management and
a 9-cores cluster supporting multi-precision SIMD integer and floating-point
computation. Vega achieves SoA-leading efficiency of 615 GOPS/W on 8-bit INT
computation (boosted to 1.3TOPS/W for 8-bit DNN inference with hardware
acceleration). On floating-point (FP) compuation, it achieves SoA-leading
efficiency of 79 and 129 GFLOPS/W on 32- and 16-bit FP, respectively. Two
programmable machine-learning (ML) accelerators boost energy efficiency in
cognitive sleep and active states, respectively.
- Abstract(参考訳): インターネット・オブ・シング(Internet-of-Things)は、バッテリー寿命の長い超低消費電力常時オン機能を備えたエンドノードと、複雑で高速に進化するニアセンサー分析アルゴリズム(NSAAs)を扱うための高性能、エネルギー効率、極端な柔軟性を必要とする。
私たちは、モバイルDNN推論、1.6MBのステートリテンションSRAM、および4MBの非揮発性MRAMなどを含む、NSAAのフルリテンション認知睡眠モードから32.2 GOPS (@ 49.4 mW)ピークパフォーマンスまで、スケールアップ可能なIoTエンドノードSoCであるVegaを紹介します。
NSAAのパフォーマンスと柔軟性の要件を満たすため、SoCは10のRISC-Vコア、すなわちSoCとIO管理のためのコアと、マルチ精度SIMD整数と浮動小数点演算をサポートする9コアクラスタを備えている。
ベガは8ビットINT計算において615 GOPS/WのSoAリード効率を達成する(ハードウェアアクセラレーションによる8ビットDNN推論では1.3TOPS/Wとなる)。
浮動小数点 (FP) 演算では、それぞれ32ビットFPと16ビットFPで79と129のGFLOPS/WのSoAリード効率を達成する。
2つのプログラム可能な機械学習アクセラレーターは、それぞれ認知睡眠と活動状態のエネルギー効率を高める。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - BEANNA: A Binary-Enabled Architecture for Neural Network Acceleration [0.0]
本稿では,浮動小数点層とバイナリネットワーク層の両方を処理可能なニューラルネットワークハードウェアアクセラレータを提案し,評価する。
BEANNAは100MHzのクロック速度で動作し、ピークスループットは52.8ギガOps/秒である。
論文 参考訳(メタデータ) (2021-08-04T23:17:34Z) - Efficient and Generic 1D Dilated Convolution Layer for Deep Learning [52.899995651639436]
幅広いパラメータをカバーする汎用的な1D畳み込み層の効率的な実装を紹介します。
特にIntel AVX-512とAVX-512 BFloat16命令を含むアーキテクチャ向けに最適化されている。
本稿では,最適化された1次元畳み込み層の性能を,実際のゲノミクスデータセットを用いたエンドツーエンドニューラルネットワークトレーニングで実証する。
論文 参考訳(メタデータ) (2021-04-16T09:54:30Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - Sound Event Detection with Binary Neural Networks on Tightly
Power-Constrained IoT Devices [20.349809458335532]
サウンドイベント検出(SED)は、消費者およびスマートシティアプリケーションのホットトピックです。
Deep Neural Networksに基づく既存のアプローチは非常に効果的ですが、メモリ、電力、スループットの面で非常に要求が高いです。
本稿では,高エネルギー効率なRISC-V(8+1)コアGAP8マイクロコントローラと,極端量子化と小プリントバイナリニューラルネットワーク(BNN)の組み合わせについて検討する。
論文 参考訳(メタデータ) (2021-01-12T12:38:23Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - RNNAccel: A Fusion Recurrent Neural Network Accelerator for Edge
Intelligence [2.055204980188575]
我々は、RNNAccelと呼ばれるRNNディープラーニングアクセラレータを提示する。
LSTM(Long Short-Term Memory)ネットワーク、GRU(Gated Recurrent Unit)ネットワーク、FC(Fully Connected Layer)/MLP(Multiple-Perceptron Layer)ネットワークをサポートする。
32-MAC RNNアクセラレータは90%のMAC利用、40nmプロセスで1.27TOP/W、圧縮比8倍、推測精度90%を達成する。
論文 参考訳(メタデータ) (2020-10-26T03:36:36Z) - DORY: Automatic End-to-End Deployment of Real-World DNNs on Low-Cost IoT
MCUs [6.403349961091506]
低コストのMCUベースのエンドノードはオンチップメモリが限られており、キャッシュをスクラッチパッドで置き換えることが多い。
DORYは、通常1MB以下のオンチップメモリを持つ低価格のMCUにデプロイする自動ツールである。
論文 参考訳(メタデータ) (2020-08-17T07:30:54Z) - Q-EEGNet: an Energy-Efficient 8-bit Quantized Parallel EEGNet
Implementation for Edge Motor-Imagery Brain--Machine Interfaces [16.381467082472515]
運動画像脳-機械インタフェース(MI-BMI)は、人間の脳と機械間の直接的かつアクセス可能なコミュニケーションをプロミットする。
脳波信号を分類するためのディープラーニングモデルが登場した。
これらのモデルは、メモリと計算要求のため、エッジデバイスの限界を超えることが多い。
論文 参考訳(メタデータ) (2020-04-24T12:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。