論文の概要: DeepVigor+: Scalable and Accurate Semi-Analytical Fault Resilience Analysis for Deep Neural Network
- arxiv url: http://arxiv.org/abs/2410.15742v1
- Date: Mon, 21 Oct 2024 08:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:15:39.433301
- Title: DeepVigor+: Scalable and Accurate Semi-Analytical Fault Resilience Analysis for Deep Neural Network
- Title(参考訳): DeepVigor+:Deep Neural Networkのためのスケーラブルで高精度な半解析的フォールトレジリエンス解析
- Authors: Mohammad Hasan Ahmadilivani, Jaan Raik, Masoud Daneshtalab, Maksim Jenihhin,
- Abstract要約: 本稿では,DNNにおける信頼性測定の効率的な代替手段として,スケーラブルで高速かつ高精度な半解析手法であるDeepVigor+を紹介する。
結果は、DeepVigor+が、1%未満の誤差と14.9の誤差を持つDNNモデルの脆弱性係数(VF)を、最もよく知られた最先端統計FIの26.9倍のシミュレーションで取得していることを示している。
- 参考スコア(独自算出の注目度): 0.4999814847776098
- License:
- Abstract: Growing exploitation of Machine Learning (ML) in safety-critical applications necessitates rigorous safety analysis. Hardware reliability assessment is a major concern with respect to measuring the level of safety. Quantifying the reliability of emerging ML models, including Deep Neural Networks (DNNs), is highly complex due to their enormous size in terms of the number of parameters and computations. Conventionally, Fault Injection (FI) is applied to perform a reliability measurement. However, performing FI on modern-day DNNs is prohibitively time-consuming if an acceptable confidence level is to be achieved. In order to speed up FI for large DNNs, statistical FI has been proposed. However, the run-time for the large DNN models is still considerably long. In this work, we introduce DeepVigor+, a scalable, fast and accurate semi-analytical method as an efficient alternative for reliability measurement in DNNs. DeepVigor+ implements a fault propagation analysis model and attempts to acquire Vulnerability Factors (VFs) as reliability metrics in an optimal way. The results indicate that DeepVigor+ obtains VFs for DNN models with an error less than 1\% and 14.9 up to 26.9 times fewer simulations than the best-known state-of-the-art statistical FI enabling an accurate reliability analysis for emerging DNNs within a few minutes.
- Abstract(参考訳): 安全クリティカルなアプリケーションにおける機械学習(ML)の活用の増大は、厳密な安全分析を必要とする。
ハードウェアの信頼性評価は、安全性のレベルを測定する上で大きな関心事である。
ディープニューラルネットワーク(DNN)を含む新興MLモデルの信頼性の定量化は、パラメータの数や計算量に関して、その巨大なサイズのため、非常に複雑である。
従来, 故障注入(FI)を適用し, 信頼性測定を行った。
しかし、現在のDNNにおけるFIの実行は、許容される信頼レベルが達成される場合、極めて時間がかかります。
大規模DNNにおけるFIの高速化のために,統計FIが提案されている。
しかし、大規模なDNNモデルのランタイムはまだかなり長い。
本稿では,DNNにおける信頼性測定の効率的な代替手段として,スケーラブルで高速かつ高精度な半解析手法であるDeepVigor+を紹介する。
DeepVigor+は障害伝搬分析モデルを実装し、信頼性指標としてVF(Vulnerability Factors)を最適な方法で取得しようとする。
その結果、DeepVigor+は1\%未満の誤差と14.9の誤差を持つDNNモデルのVFを26.9倍のシミュレーションで取得できることがわかった。
関連論文リスト
- Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - APPRAISER: DNN Fault Resilience Analysis Employing Approximation Errors [1.1091582432763736]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)は、新たな信頼性の懸念を引き起こす。
エミュレーションによる断層注入の最先端手法は, 時間, 設計, 制御・複雑度の問題を引き起こす。
APPRAISERは、非伝統的な目的に関数近似を適用し、近似計算誤差を用いる。
論文 参考訳(メタデータ) (2023-05-31T10:53:46Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Thales: Formulating and Estimating Architectural Vulnerability Factors
for DNN Accelerators [6.8082132475259405]
本稿では,過渡的エラーが発生した場合のネットワークの挙動を推定し,過渡的エラーが発生した場合の精度を定量化することに焦点を当てる。
既存のレジリエンス精度 (RA) の定式化は, ソフトウェア変数がハードウェアの過渡的欠陥の下で等価な故障確率を持つことを誤って仮定するため, 基本的に不正確であることを示す。
本稿では, 過渡的故障下でのDNN変数の故障確率を推定し, ハードウェアによる正しいRA推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-05T23:16:20Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Interval Deep Learning for Uncertainty Quantification in Safety
Applications [0.0]
現在のディープニューラルネットワーク(DNN)は、重要な入力データの不確実性を定量化し伝播する暗黙のメカニズムを持っていない。
本稿では、間隔解析を用いて入力とパラメータの不確かさを定量化できる勾配法を最適化したDNNを提案する。
本研究では,Deep Interval Neural Network (DINN) が不確定な入力データから正確な有界推定を生成できることを示した。
論文 参考訳(メタデータ) (2021-05-13T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。