論文の概要: Lupulus: A Flexible Hardware Accelerator for Neural Networks
- arxiv url: http://arxiv.org/abs/2005.01016v1
- Date: Sun, 3 May 2020 07:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 07:05:21.767524
- Title: Lupulus: A Flexible Hardware Accelerator for Neural Networks
- Title(参考訳): Lupulus: ニューラルネットワークのための柔軟なハードウェアアクセラレータ
- Authors: Andreas Toftegaard Kristensen, Robert Giterman, Alexios
Balatsoukas-Stimming, and Andreas Burg
- Abstract要約: 本稿では,Lupulusと呼ばれる,ニューラルネットワークのためのフレキシブルハードウェアアクセラレータを提案する。
Lupulus は 28nm FD-SOI で実装され、21.4ms と 183.6ms のレイテンシを持つ 380 GOPS/GHz のピーク性能をAlexNet と VGG-16 の畳み込み層に対して示す。
- 参考スコア(独自算出の注目度): 12.490787443456636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have become indispensable for a wide range of applications,
but they suffer from high computational- and memory-requirements, requiring
optimizations from the algorithmic description of the network to the hardware
implementation. Moreover, the high rate of innovation in machine learning makes
it important that hardware implementations provide a high level of
programmability to support current and future requirements of neural networks.
In this work, we present a flexible hardware accelerator for neural networks,
called Lupulus, supporting various methods for scheduling and mapping of
operations onto the accelerator. Lupulus was implemented in a 28nm FD-SOI
technology and demonstrates a peak performance of 380 GOPS/GHz with latencies
of 21.4ms and 183.6ms for the convolutional layers of AlexNet and VGG-16,
respectively.
- Abstract(参考訳): ニューラルネットワークは広範囲のアプリケーションには不可欠だが、高い計算量とメモリ要求に悩まされており、ネットワークのアルゴリズム記述からハードウェア実装まで最適化が必要である。
さらに、機械学習の革新率が高いため、ハードウェアの実装は、ニューラルネットワークの現在および将来の要件をサポートするための高いレベルのプログラム性を提供することが重要である。
本研究では,Lupulusと呼ばれる,ニューラルネットワークのための柔軟なハードウェアアクセラレータを提案する。
Lupulus は 28nm FD-SOI で実装され、21.4ms と 183.6ms のレイテンシを持つ 380 GOPS/GHz のピーク性能をAlexNet と VGG-16 の畳み込み層に対して示す。
関連論文リスト
- Analog Spiking Neuron in CMOS 28 nm Towards Large-Scale Neuromorphic Processors [0.8426358786287627]
本研究では,TSMCの28nmCMOS技術を用いた低消費電力Leaky Integrate- and-Fireニューロンの設計を提案する。
製造されたニューロンは1.61 fJ/スパイクを消費し、34$mu m2$の活性領域を占有し、最大スパイク周波数は250mVで300kHzである。
論文 参考訳(メタデータ) (2024-08-14T17:51:20Z) - FireFly: A High-Throughput Hardware Accelerator for Spiking Neural
Networks with Efficient DSP and Memory Optimization [6.966706170499345]
スパイキングニューラルネットワーク(SNN)は、強い生物学的解釈性と高エネルギー効率のために広く利用されている。
フィールドプログラマブルゲートアレイ(FPGA)のためのほとんどのSNNハードウェア実装は、演算やメモリ効率の要求を満たすことができない。
発火ニューロンから発生するスパイクをオンザフライ(FireFly)で処理できるFPGAアクセラレータを提案する。
論文 参考訳(メタデータ) (2023-01-05T04:28:07Z) - Hardware Accelerator and Neural Network Co-Optimization for
Ultra-Low-Power Audio Processing Devices [0.0]
HANNAHは、ディープニューラルネットワークとハードウェアアクセラレータのハードウェア/ソフトウェア共同設計の自動化と統合のためのフレームワークである。
そこで,HANNAHは,音声分類タスクにおいて,消費電力を最小化し,高い精度で適切なニューラルネットワークを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-09-08T13:29:09Z) - BiFSMN: Binary Neural Network for Keyword Spotting [47.46397208920726]
BiFSMNは、KWSのための正確かつ極効率のバイナリニューラルネットワークである。
実世界のエッジハードウェアにおいて,BiFSMNは22.3倍の高速化と15.5倍のストレージ節約を実現可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T05:16:53Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - SONIC: A Sparse Neural Network Inference Accelerator with Silicon
Photonics for Energy-Efficient Deep Learning [4.286327408435937]
シリコンフォトニクスを用いたスパースニューラルネットワーク推論アクセラレータSONICを提案する。
SONICは、最先端のスパース電子ニューラルネットワークアクセラレータよりも、ワット当たり5.8倍、ビット当たり8.4倍のエネルギーを達成できる。
論文 参考訳(メタデータ) (2021-09-09T17:57:09Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - A$^3$: Accelerating Attention Mechanisms in Neural Networks with
Approximation [3.5217810503607896]
アルゴリズム近似とハードウェア特殊化によるニューラルネットワークの注意機構を高速化するA3の設計と設計を行う。
提案する加速器は、エネルギー効率(性能/ワット)の大幅な向上と、最先端の従来のハードウェアの大幅な高速化を実現している。
論文 参考訳(メタデータ) (2020-02-22T02:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。