論文の概要: Bifrost: End-to-End Evaluation and Optimization of Reconfigurable DNN
Accelerators
- arxiv url: http://arxiv.org/abs/2204.12418v1
- Date: Tue, 26 Apr 2022 16:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 15:12:32.877053
- Title: Bifrost: End-to-End Evaluation and Optimization of Reconfigurable DNN
Accelerators
- Title(参考訳): Bifrost: 再構成可能なDNN加速器のエンドツーエンド評価と最適化
- Authors: Axel Stjerngren, Perry Gibson, Jos\'e Cano
- Abstract要約: Bifrostは、再構成可能な推論アクセラレータの評価と最適化のためのエンドツーエンドフレームワークである。
我々は,ByfrostのSTONNEおよび他のツールに対する優位性を論じ,Byfrost を用いた MAERI および SIGMA アーキテクチャの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconfigurable accelerators for deep neural networks (DNNs) promise to
improve performance such as inference latency. STONNE is the first
cycle-accurate simulator for reconfigurable DNN inference accelerators which
allows for the exploration of accelerator designs and configuration space.
However, preparing models for evaluation and exploring configuration space in
STONNE is a manual developer-timeconsuming process, which is a barrier for
research. This paper introduces Bifrost, an end-to-end framework for the
evaluation and optimization of reconfigurable DNN inference accelerators.
Bifrost operates as a frontend for STONNE and leverages the TVM deep learning
compiler stack to parse models and automate offloading of accelerated
computations. We discuss Bifrost's advantages over STONNE and other tools, and
evaluate the MAERI and SIGMA architectures using Bifrost. Additionally, Bifrost
introduces a module leveraging AutoTVM to efficiently explore accelerator
designs and dataflow mapping space to optimize performance. This is
demonstrated by tuning the MAERI architecture and generating efficient dataflow
mappings for AlexNet, obtaining an average speedup of $50\times$ for the
convolutional layers and $11\times$ for the fully connected layers. Our code is
available at www.github.com/gicLAB/bifrost.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のための再構成可能なアクセラレータは、推論レイテンシなどのパフォーマンスを改善することを約束する。
STONNEは、再構成可能なDNN推論アクセラレーターのための最初のサイクル精度シミュレータであり、加速器の設計と構成空間の探索を可能にする。
しかし、STONNEにおける構成空間の評価と探索のためのモデルの作成は、手作業による開発者の時間消費プロセスであり、研究の障壁となる。
本稿では、再構成可能なDNN推論アクセラレータの評価と最適化のためのエンドツーエンドフレームワークであるBifrostを紹介する。
BifrostはSTONNEのフロントエンドとして動作し、TVMディープラーニングコンパイラスタックを利用してモデルを解析し、高速化された計算のオフロードを自動化する。
我々は,ByfrostのSTONNEおよび他のツールに対する優位性を論じ,Byfrost を用いた MAERI および SIGMA アーキテクチャの評価を行った。
さらに、BifrostはAutoTVMを活用してアクセラレータ設計とデータフローマッピングスペースを効率的に探索し、パフォーマンスを最適化するモジュールを導入した。
これは、maeriアーキテクチャをチューニングし、alexnetで効率的なデータフローマッピングを生成し、畳み込み層で平均50\times$、完全接続層で111\times$を取得することで示される。
私たちのコードはwww.github.com/giclab/bifrostで入手できる。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Automatic Generation of Fast and Accurate Performance Models for Deep Neural Network Accelerators [33.18173790144853]
本稿では,Deep Neural Networks (DNN) のレイテンシを正確に推定する高速性能モデルのための自動生成手法を提案する。
我々は、Gemmini、UltraTrail、Plastinine由来、パラメータ化可能なシストリックアレイなどの代表的DNNアクセラレータをモデル化した。
ループカーネルを154回繰り返して評価し,419億命令のパフォーマンスを推定し,大幅な高速化を実現した。
論文 参考訳(メタデータ) (2024-09-13T07:27:55Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - NASA: Neural Architecture Search and Acceleration for Hardware Inspired
Hybrid Networks [24.95135135092478]
我々はNASAというニューラルアーキテクチャ検索・加速フレームワークを提案する。
自動乗算型DNN開発を可能にし、専用乗算型加速器を統合する。
実験は、達成可能な精度と効率のトレードオフの観点から、NASAのアルゴリズム・ハードウェアの共同設計フレームワークの利点を一貫して評価する。
論文 参考訳(メタデータ) (2022-10-24T16:03:42Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Procrustes: a Dataflow and Accelerator for Sparse Deep Neural Network
Training [0.5219568203653523]
我々は,まず,第1の訓練を行わず,第2の訓練を行ない,第2の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行なう。
最先端のDNNアクセラレーターをスパーストレーニングサポートなしで使用した同等の未使用モデルのトレーニングと比較すると、Procrustesは最大3.26$times$少ないエネルギーを消費し、様々なモデルにわたって最大4$times$のスピードアップを提供する。
論文 参考訳(メタデータ) (2020-09-23T07:39:55Z) - STONNE: A Detailed Architectural Simulator for Flexible Neural Network
Accelerators [5.326345912766044]
STONNEはサイクル精度が高く、高度にモジュール化され、高度に拡張可能なシミュレーションフレームワークである。
一般に公開されているBSV符号化MAERIの実装の性能結果にどのように近づくかを示す。
論文 参考訳(メタデータ) (2020-06-10T19:20:52Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。