論文の概要: DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures
- arxiv url: http://arxiv.org/abs/2002.11270v2
- Date: Fri, 16 Apr 2021 02:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 16:02:29.940228
- Title: DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures
- Title(参考訳): DNN-Chip Predictor: さまざまなデータフローとハードウェアアーキテクチャを備えたDNN加速器の解析的パフォーマンス予測器
- Authors: Yang Zhao, Chaojian Li, Yue Wang, Pengfei Xu, Yongan Zhang, and
Yingyan Lin
- Abstract要約: 近年のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
DNN-Chip Predictorは、DNNアクセラレータのエネルギ、スループット、遅延を実際の実装前に正確に予測できる分析性能予測器である。
- 参考スコア(独自算出の注目度): 30.689015188050405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent breakthroughs in deep neural networks (DNNs) have spurred a
tremendously increased demand for DNN accelerators. However, designing DNN
accelerators is non-trivial as it often takes months/years and requires
cross-disciplinary knowledge. To enable fast and effective DNN accelerator
development, we propose DNN-Chip Predictor, an analytical performance predictor
which can accurately predict DNN accelerators' energy, throughput, and latency
prior to their actual implementation. Our Predictor features two highlights:
(1) its analytical performance formulation of DNN ASIC/FPGA accelerators
facilitates fast design space exploration and optimization; and (2) it supports
DNN accelerators with different algorithm-to-hardware mapping methods (i.e.,
dataflows) and hardware architectures. Experiment results based on 2 DNN models
and 3 different ASIC/FPGA implementations show that our DNN-Chip Predictor's
predicted performance differs from those of chip measurements of FPGA/ASIC
implementation by no more than 17.66% when using different DNN models, hardware
architectures, and dataflows. We will release code upon acceptance.
- Abstract(参考訳): 最近のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
しかし、dnnアクセラレーターの設計は、しばしば数ヶ月/年を要し、学際的な知識を必要とするため、自明ではない。
高速かつ効果的なDNN加速器開発を実現するため,実実装に先立ってDNN加速器のエネルギー,スループット,遅延を正確に予測できる解析性能予測器DNN-Chip Predictorを提案する。
我々の予測器は,(1)DNN ASIC/FPGAアクセラレータの解析的性能定式化により,設計空間の探索と最適化が容易になり,(2)異なるアルゴリズムとハードウェアのマッピング手法(すなわち,データフロー)とハードウェアアーキテクチャによるDNNアクセラレータをサポートする。
2つのDNNモデルと3つのASIC/FPGA実装に基づく実験結果から、DNN-Chip Predictorの予測性能は、異なるDNNモデル、ハードウェアアーキテクチャ、データフローを使用する場合のFPGA/ASIC実装のチップ測定と17.66%以下の違いが示されている。
受け入れ次第、コードをリリースします。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - AutoDNNchip: An Automated DNN Chip Predictor and Builder for Both FPGAs
and ASICs [36.490296335959485]
AutoDNNchipはFPGAおよびASICベースのDNNチップの実装を、指定されたアプリケーションとデータセットのために自動生成するチップジェネレータである。
我々のチップ予測器の予測性能は実測値と検証時に10%異なる。
当社のAutoDNNchipによって生成されたアクセラレータは、専門家による最先端アクセラレータよりも優れた(最大3.86倍の改善)パフォーマンスを実現できます。
論文 参考訳(メタデータ) (2020-01-06T05:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。