論文の概要: DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators
- arxiv url: http://arxiv.org/abs/2303.08226v1
- Date: Tue, 14 Mar 2023 20:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:43:48.052621
- Title: DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators
- Title(参考訳): DeepAxe: DNN加速器の近似と信頼性トレードオフを探索するフレームワーク
- Authors: Mahdi Taheri, Mohammad Riazati, Mohammad Hasan Ahmadilivani, Maksim
Jenihhin, Masoud Daneshtalab, Jaan Raik, Mikael Sjodin, and Bjorn Lisper
- Abstract要約: 安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
- 参考スコア(独自算出の注目度): 0.9556128246747769
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While the role of Deep Neural Networks (DNNs) in a wide range of
safety-critical applications is expanding, emerging DNNs experience massive
growth in terms of computation power. It raises the necessity of improving the
reliability of DNN accelerators yet reducing the computational burden on the
hardware platforms, i.e. reducing the energy consumption and execution time as
well as increasing the efficiency of DNN accelerators. Therefore, the trade-off
between hardware performance, i.e. area, power and delay, and the reliability
of the DNN accelerator implementation becomes critical and requires tools for
analysis. In this paper, we propose a framework DeepAxe for design space
exploration for FPGA-based implementation of DNNs by considering the trilateral
impact of applying functional approximation on accuracy, reliability and
hardware performance. The framework enables selective approximation of
reliability-critical DNNs, providing a set of Pareto-optimal DNN implementation
design space points for the target resource utilization requirements. The
design flow starts with a pre-trained network in Keras, uses an innovative
high-level synthesis environment DeepHLS and results in a set of Pareto-optimal
design space points as a guide for the designer. The framework is demonstrated
in a case study of custom and state-of-the-art DNNs and datasets.
- Abstract(参考訳): 幅広い安全クリティカルなアプリケーションにおけるDeep Neural Networks(DNN)の役割は拡大しつつあるが、新しいDNNは計算能力の面で大きな成長を遂げている。
これにより、DNNアクセラレータの信頼性向上の必要性が高まるが、ハードウェアプラットフォーム上での計算負担、すなわち、エネルギー消費と実行時間を削減し、DNNアクセラレータの効率を向上する。
そのため、ハードウェア性能、すなわち領域、電力と遅延、およびdnnアクセラレータの実装の信頼性とのトレードオフが重要となり、分析ツールが必要となる。
本稿では,DNNのFPGAによる実装のための設計空間探索のためのDeepAxeフレームワークを提案する。
このフレームワークは信頼性クリティカルなDNNを選択的に近似し,Pareto-Optimal DNN実装設計点のセットを目標資源利用要求に対して提供する。
設計フローは、Kerasのトレーニング済みネットワークから始まり、革新的な高レベル合成環境であるDeepHLSを使用し、設計者のためのガイドとしてパレート最適設計点のセットを生成する。
このフレームワークは、カスタムおよび最先端のDNNとデータセットのケーススタディで実証されている。
関連論文リスト
- RoHNAS: A Neural Architecture Search Framework with Conjoint
Optimization for Adversarial Robustness and Hardware Efficiency of
Convolutional and Capsule Networks [10.946374356026679]
RoHNASは、Deep Neural Network(DNN)の対向ロバスト性とハードウェア効率を共同で最適化する新しいフレームワークである。
探索時間を短縮するため、RoHNASはNASフローで使用するデータセット毎に、逆摂動の適切な値を分析し、選択する。
論文 参考訳(メタデータ) (2022-10-11T09:14:56Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Hardware Approximate Techniques for Deep Neural Network Accelerators: A
Survey [4.856755747052137]
Deep Neural Networks(DNN)は非常に人気があり、機械学習(ML)における様々な認知タスクのパフォーマンスが高い。
近年のDNNの進歩は多くのタスクにおいて人間の精度を超えたが、計算の複雑さのコストがかかる。
本稿では,DNN加速器のハードウェア近似技術に関する包括的調査と解析を行う。
論文 参考訳(メタデータ) (2022-03-16T16:33:13Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - High-Performance FPGA-based Accelerator for Bayesian Neural Networks [5.86877988129171]
本研究は,モンテカルロ・ドロップアウトから推定されるBNNを高速化するFPGAベースのハードウェアアーキテクチャを提案する。
他の最先端のBNN加速器と比較して、提案された加速器は最大で4倍のエネルギー効率と9倍の計算効率を達成することができる。
論文 参考訳(メタデータ) (2021-05-12T06:20:44Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks [1.2949520455740093]
本稿では,対象とするデバイス,エッジ,クラウドリソースのセット上で,ディープニューラルネットワーク(DNN)の自動ベンチマークを行うツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア機能を活用することによって、コンテキスト認識である。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
論文 参考訳(メタデータ) (2020-08-08T13:39:57Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures [30.689015188050405]
近年のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
DNN-Chip Predictorは、DNNアクセラレータのエネルギ、スループット、遅延を実際の実装前に正確に予測できる分析性能予測器である。
論文 参考訳(メタデータ) (2020-02-26T02:59:18Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。