論文の概要: Special Session: Approximation and Fault Resiliency of DNN Accelerators
- arxiv url: http://arxiv.org/abs/2306.04645v1
- Date: Wed, 31 May 2023 19:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:27:22.108362
- Title: Special Session: Approximation and Fault Resiliency of DNN Accelerators
- Title(参考訳): 特別セッション : dnn加速器の近似と耐障害性
- Authors: Mohammad Hasan Ahmadilivani, Mario Barbareschi, Salvatore Barone,
Alberto Bosio, Masoud Daneshtalab, Salvatore Della Torca, Gabriele Gavarini,
Maksim Jenihhin, Jaan Raik, Annachiara Ruospo, Ernesto Sanchez, and Mahdi
Taheri
- Abstract要約: 本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
- 参考スコア(独自算出の注目度): 0.9126382223122612
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Learning, and in particular, Deep Neural Network (DNN) is nowadays
widely used in many scenarios, including safety-critical applications such as
autonomous driving. In this context, besides energy efficiency and performance,
reliability plays a crucial role since a system failure can jeopardize human
life. As with any other device, the reliability of hardware architectures
running DNNs has to be evaluated, usually through costly fault injection
campaigns. This paper explores the approximation and fault resiliency of DNN
accelerators. We propose to use approximate (AxC) arithmetic circuits to
agilely emulate errors in hardware without performing fault injection on the
DNN. To allow fast evaluation of AxC DNN, we developed an efficient GPU-based
simulation framework. Further, we propose a fine-grain analysis of fault
resiliency by examining fault propagation and masking in networks
- Abstract(参考訳): ディープラーニング、特にディープニューラルネットワーク(dnn)は現在、自動運転のような安全クリティカルなアプリケーションを含む多くのシナリオで広く使われている。
この文脈では、エネルギー効率と性能に加えて、システムの障害が人間の生活を危険にさらすため、信頼性が重要な役割を果たす。
他のデバイスと同様に、DNNを実行するハードウェアアーキテクチャの信頼性は、通常、コストのかかるフォールトインジェクションキャンペーンを通じて評価されなければならない。
本稿ではDNN加速器の近似と耐故障性について考察する。
本稿では,DNNの故障注入を行なわずにハードウェアのエラーを動的にエミュレートするために近似(AxC)演算回路を提案する。
AxC DNNの高速評価を実現するため,GPUを用いた効率的なシミュレーションフレームワークを開発した。
さらに,ネットワークにおける障害伝播とマスキングを検証し,耐故障性の微粒化解析を提案する。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - SAFFIRA: a Framework for Assessing the Reliability of
Systolic-Array-Based DNN Accelerators [0.4391603054571586]
本稿では,シストリックアレイをベースとしたディープニューラルネットワーク(DNN)アクセラレータに適した,階層型ソフトウェアベースのハードウェア対応フォールトインジェクション戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T13:17:09Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Thales: Formulating and Estimating Architectural Vulnerability Factors
for DNN Accelerators [6.8082132475259405]
本稿では,過渡的エラーが発生した場合のネットワークの挙動を推定し,過渡的エラーが発生した場合の精度を定量化することに焦点を当てる。
既存のレジリエンス精度 (RA) の定式化は, ソフトウェア変数がハードウェアの過渡的欠陥の下で等価な故障確率を持つことを誤って仮定するため, 基本的に不正確であることを示す。
本稿では, 過渡的故障下でのDNN変数の故障確率を推定し, ハードウェアによる正しいRA推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-05T23:16:20Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。