論文の概要: DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators
- arxiv url: http://arxiv.org/abs/2303.08226v1
- Date: Tue, 14 Mar 2023 20:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:43:48.052621
- Title: DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators
- Title(参考訳): DeepAxe: DNN加速器の近似と信頼性トレードオフを探索するフレームワーク
- Authors: Mahdi Taheri, Mohammad Riazati, Mohammad Hasan Ahmadilivani, Maksim
Jenihhin, Masoud Daneshtalab, Jaan Raik, Mikael Sjodin, and Bjorn Lisper
- Abstract要約: 安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
- 参考スコア(独自算出の注目度): 0.9556128246747769
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While the role of Deep Neural Networks (DNNs) in a wide range of
safety-critical applications is expanding, emerging DNNs experience massive
growth in terms of computation power. It raises the necessity of improving the
reliability of DNN accelerators yet reducing the computational burden on the
hardware platforms, i.e. reducing the energy consumption and execution time as
well as increasing the efficiency of DNN accelerators. Therefore, the trade-off
between hardware performance, i.e. area, power and delay, and the reliability
of the DNN accelerator implementation becomes critical and requires tools for
analysis. In this paper, we propose a framework DeepAxe for design space
exploration for FPGA-based implementation of DNNs by considering the trilateral
impact of applying functional approximation on accuracy, reliability and
hardware performance. The framework enables selective approximation of
reliability-critical DNNs, providing a set of Pareto-optimal DNN implementation
design space points for the target resource utilization requirements. The
design flow starts with a pre-trained network in Keras, uses an innovative
high-level synthesis environment DeepHLS and results in a set of Pareto-optimal
design space points as a guide for the designer. The framework is demonstrated
in a case study of custom and state-of-the-art DNNs and datasets.
- Abstract(参考訳): 幅広い安全クリティカルなアプリケーションにおけるDeep Neural Networks(DNN)の役割は拡大しつつあるが、新しいDNNは計算能力の面で大きな成長を遂げている。
これにより、DNNアクセラレータの信頼性向上の必要性が高まるが、ハードウェアプラットフォーム上での計算負担、すなわち、エネルギー消費と実行時間を削減し、DNNアクセラレータの効率を向上する。
そのため、ハードウェア性能、すなわち領域、電力と遅延、およびdnnアクセラレータの実装の信頼性とのトレードオフが重要となり、分析ツールが必要となる。
本稿では,DNNのFPGAによる実装のための設計空間探索のためのDeepAxeフレームワークを提案する。
このフレームワークは信頼性クリティカルなDNNを選択的に近似し,Pareto-Optimal DNN実装設計点のセットを目標資源利用要求に対して提供する。
設計フローは、Kerasのトレーニング済みネットワークから始まり、革新的な高レベル合成環境であるDeepHLSを使用し、設計者のためのガイドとしてパレート最適設計点のセットを生成する。
このフレームワークは、カスタムおよび最先端のDNNとデータセットのケーススタディで実証されている。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Exploration of Activation Fault Reliability in Quantized Systolic
Array-Based DNN Accelerators [0.8796261172196743]
本稿では,量子化がモデル精度,アクティベーション障害の信頼性,ハードウェア効率に与える影響を総合的に評価するための包括的方法論を提案する。
さまざまな量子化対応技術、フォールトインジェクション、ハードウェア実装を適用可能な、完全に自動化されたフレームワークが導入された。
確立されたベンチマーク実験は、信頼性、ハードウェア性能、ネットワーク精度に対する分析フローと量子化の深い影響を実証している。
論文 参考訳(メタデータ) (2024-01-17T12:55:17Z) - Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Hardware Approximate Techniques for Deep Neural Network Accelerators: A
Survey [4.856755747052137]
Deep Neural Networks(DNN)は非常に人気があり、機械学習(ML)における様々な認知タスクのパフォーマンスが高い。
近年のDNNの進歩は多くのタスクにおいて人間の精度を超えたが、計算の複雑さのコストがかかる。
本稿では,DNN加速器のハードウェア近似技術に関する包括的調査と解析を行う。
論文 参考訳(メタデータ) (2022-03-16T16:33:13Z) - High-Performance FPGA-based Accelerator for Bayesian Neural Networks [5.86877988129171]
本研究は,モンテカルロ・ドロップアウトから推定されるBNNを高速化するFPGAベースのハードウェアアーキテクチャを提案する。
他の最先端のBNN加速器と比較して、提案された加速器は最大で4倍のエネルギー効率と9倍の計算効率を達成することができる。
論文 参考訳(メタデータ) (2021-05-12T06:20:44Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。