論文の概要: AutoDNNchip: An Automated DNN Chip Predictor and Builder for Both FPGAs
and ASICs
- arxiv url: http://arxiv.org/abs/2001.03535v4
- Date: Wed, 10 Jun 2020 23:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 03:12:55.101113
- Title: AutoDNNchip: An Automated DNN Chip Predictor and Builder for Both FPGAs
and ASICs
- Title(参考訳): autodnnchip:fpgaとasicの両方のための自動dnnチップ予測およびビルダー
- Authors: Pengfei Xu, Xiaofan Zhang, Cong Hao, Yang Zhao, Yongan Zhang, Yue
Wang, Chaojian Li, Zetong Guan, Deming Chen, Yingyan Lin
- Abstract要約: AutoDNNchipはFPGAおよびASICベースのDNNチップの実装を、指定されたアプリケーションとデータセットのために自動生成するチップジェネレータである。
我々のチップ予測器の予測性能は実測値と検証時に10%異なる。
当社のAutoDNNchipによって生成されたアクセラレータは、専門家による最先端アクセラレータよりも優れた(最大3.86倍の改善)パフォーマンスを実現できます。
- 参考スコア(独自算出の注目度): 36.490296335959485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent breakthroughs in Deep Neural Networks (DNNs) have fueled a growing
demand for DNN chips. However, designing DNN chips is non-trivial because: (1)
mainstream DNNs have millions of parameters and operations; (2) the large
design space due to the numerous design choices of dataflows, processing
elements, memory hierarchy, etc.; and (3) an algorithm/hardware co-design is
needed to allow the same DNN functionality to have a different decomposition,
which would require different hardware IPs to meet the application
specifications. Therefore, DNN chips take a long time to design and require
cross-disciplinary experts. To enable fast and effective DNN chip design, we
propose AutoDNNchip - a DNN chip generator that can automatically generate both
FPGA- and ASIC-based DNN chip implementation given DNNs from machine learning
frameworks (e.g., PyTorch) for a designated application and dataset.
Specifically, AutoDNNchip consists of two integrated enablers: (1) a Chip
Predictor, built on top of a graph-based accelerator representation, which can
accurately and efficiently predict a DNN accelerator's energy, throughput, and
area based on the DNN model parameters, hardware configuration,
technology-based IPs, and platform constraints; and (2) a Chip Builder, which
can automatically explore the design space of DNN chips (including IP
selection, block configuration, resource balancing, etc.), optimize chip design
via the Chip Predictor, and then generate optimized synthesizable RTL to
achieve the target design metrics. Experimental results show that our Chip
Predictor's predicted performance differs from real-measured ones by < 10% when
validated using 15 DNN models and 4 platforms (edge-FPGA/TPU/GPU and ASIC).
Furthermore, accelerators generated by our AutoDNNchip can achieve better (up
to 3.86X improvement) performance than that of expert-crafted state-of-the-art
accelerators.
- Abstract(参考訳): 近年のDeep Neural Networks(DNN)のブレークスルーにより、DNNチップの需要が高まっている。
しかし、DNNチップの設計は、(1)主流のDNNには数百万のパラメータと操作があり、(2)データフロー、処理要素、メモリ階層といった多くの設計上の選択による大きな設計空間があるため、簡単ではない。
アプリケーション仕様を満たすためには、異なるハードウェアIPを必要とするDNN機能が異なる分解を行うために、アルゴリズム/ハードウェアの共同設計が必要である。
そのため、DNNチップの設計には長い時間がかかり、学際的な専門家を必要とする。
高速かつ効果的なDNNチップ設計を実現するため、指定されたアプリケーションとデータセットに対して機械学習フレームワーク(例えば、PyTorch)からDNNに与えられたFPGAおよびASICベースのDNNチップ実装を自動的に生成できるDNNチップジェネレータであるAutoDNNchipを提案する。
Specifically, AutoDNNchip consists of two integrated enablers: (1) a Chip Predictor, built on top of a graph-based accelerator representation, which can accurately and efficiently predict a DNN accelerator's energy, throughput, and area based on the DNN model parameters, hardware configuration, technology-based IPs, and platform constraints; and (2) a Chip Builder, which can automatically explore the design space of DNN chips (including IP selection, block configuration, resource balancing, etc.), optimize chip design via the Chip Predictor, and then generate optimized synthesizable RTL to achieve the target design metrics.
実験の結果,15のDNNモデルと4つのプラットフォーム(edge-FPGA/TPU/GPUおよびASIC)を用いて検証した場合,チップ予測器の性能は実測値と10%程度異なることがわかった。
さらに、autodnnchipによって生成されたアクセラレータは、エキスパートによる最先端アクセラレータよりも優れた(最大3.86倍の改善)パフォーマンスを実現できます。
関連論文リスト
- FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - H2Learn: High-Efficiency Learning Accelerator for High-Accuracy Spiking
Neural Networks [25.768116231283045]
H2Learnは,BPTTに基づくSNN学習において,高い効率を実現する新しいアーキテクチャである。
最新のNVIDIA V100 GPUと比較して、H2Learnは7.38倍の領域節約、5.74-10.20倍のスピードアップ、5.25-7.12倍の省エネを実現している。
論文 参考訳(メタデータ) (2021-07-25T07:37:17Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - DNA: Differentiable Network-Accelerator Co-Search [36.68587348474986]
そこで我々は,一致したネットワークやアクセラレータを自動的に検索する,差別化可能なネットワーク加速器のコサーチフレームワークであるDNAを提案する。
1)DNNアクセラレータの汎用設計スペースと、アルゴリズム探索を可能にするPyTorchなどのDNNフレームワークとの互換性。
実験およびアブレーション研究により、DNAによって生成されたマッチングネットワークと加速器は、常に最先端(SOTA)のDNNや加速器より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-28T05:57:16Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z) - DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures [30.689015188050405]
近年のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
DNN-Chip Predictorは、DNNアクセラレータのエネルギ、スループット、遅延を実際の実装前に正確に予測できる分析性能予測器である。
論文 参考訳(メタデータ) (2020-02-26T02:59:18Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。