論文の概要: HybridDNN: A Framework for High-Performance Hybrid DNN Accelerator
Design and Implementation
- arxiv url: http://arxiv.org/abs/2004.03804v1
- Date: Wed, 8 Apr 2020 04:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:30:54.362322
- Title: HybridDNN: A Framework for High-Performance Hybrid DNN Accelerator
Design and Implementation
- Title(参考訳): HybridDNN:高性能ハイブリッドDNN加速器の設計と実装のためのフレームワーク
- Authors: Hanchen Ye, Xiaofan Zhang, Zhize Huang, Gengsheng Chen, Deming Chen
- Abstract要約: HybridDNNは、高性能なハイブリッドアクセラレータを構築し、FPGAベースのハードウェア実装を提供するためのフレームワークである。
実験結果から、HybridDNNが生成したアクセラレータは、ハイエンドFPGA(VU9P)と組み込みFPGA(PYNQ-Z1)で3375.7と83.3のGOPSを提供できることが示された。
このことは、HybridDNNが柔軟でスケーラブルであり、全く異なるリソース制約でクラウドと組み込みハードウェアプラットフォームの両方をターゲットにできることを示している。
- 参考スコア(独自算出の注目度): 11.44953754129305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To speedup Deep Neural Networks (DNN) accelerator design and enable effective
implementation, we propose HybridDNN, a framework for building high-performance
hybrid DNN accelerators and delivering FPGA-based hardware implementations.
Novel techniques include a highly flexible and scalable architecture with a
hybrid Spatial/Winograd convolution (CONV) Processing Engine (PE), a
comprehensive design space exploration tool, and a complete design flow to
fully support accelerator design and implementation. Experimental results show
that the accelerators generated by HybridDNN can deliver 3375.7 and 83.3 GOPS
on a high-end FPGA (VU9P) and an embedded FPGA (PYNQ-Z1), respectively, which
achieve a 1.8x higher performance improvement compared to the state-of-art
accelerator designs. This demonstrates that HybridDNN is flexible and scalable
and can target both cloud and embedded hardware platforms with vastly different
resource constraints.
- Abstract(参考訳): 本稿では,Deep Neural Networks(DNN)アクセラレータの設計を高速化し,効率的な実装を実現するために,ハイブリットDNNを提案する。
新しい技術には、高度に柔軟でスケーラブルなアーキテクチャ、ハイブリッド空間/ウィノグラード畳み込み(conv)処理エンジン(pe)、包括的な設計空間探索ツール、加速器の設計と実装を完全にサポートする完全な設計フローが含まれる。
実験の結果,HybridDNN が生成したアクセラレータは,ハイエンドFPGA (VU9P) と組み込みFPGA (PYNQ-Z1) で3375.7 と83.3 GOPSをそれぞれ提供でき,最先端のアクセラレータ設計に比べて1.8倍の性能向上を実現していることがわかった。
このことは、HybridDNNが柔軟でスケーラブルであり、全く異なるリソース制約でクラウドと組み込みハードウェアプラットフォームの両方をターゲットにできることを示している。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures [30.689015188050405]
近年のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
DNN-Chip Predictorは、DNNアクセラレータのエネルギ、スループット、遅延を実際の実装前に正確に予測できる分析性能予測器である。
論文 参考訳(メタデータ) (2020-02-26T02:59:18Z) - Balancing Efficiency and Flexibility for DNN Acceleration via Temporal
GPU-Systolic Array Integration [22.90145417561172]
本稿では,新しいアーキテクチャ設計・実行モデルである同時多モードアーキテクチャ(SMA)を提案する。
SMAは、エンドツーエンドのアプリケーションを高速化するために、DNNアクセラレーターに汎用的なプログラマビリティを提供する。
SMAは最大63%のパフォーマンス向上を実現し、Volta-Coreのベースラインアーキテクチャよりも23%少ないエネルギーを消費する。
論文 参考訳(メタデータ) (2020-02-18T17:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。