論文の概要: Thales: Formulating and Estimating Architectural Vulnerability Factors
for DNN Accelerators
- arxiv url: http://arxiv.org/abs/2212.02649v1
- Date: Mon, 5 Dec 2022 23:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 18:01:16.332191
- Title: Thales: Formulating and Estimating Architectural Vulnerability Factors
for DNN Accelerators
- Title(参考訳): Thales: DNNアクセラレータのアーキテクチャ脆弱性係数の定式化と推定
- Authors: Abhishek Tyagi and Yiming Gan and Shaoshan Liu and Bo Yu and Paul
Whatmough and Yuhao Zhu
- Abstract要約: 本稿では,過渡的エラーが発生した場合のネットワークの挙動を推定し,過渡的エラーが発生した場合の精度を定量化することに焦点を当てる。
既存のレジリエンス精度 (RA) の定式化は, ソフトウェア変数がハードウェアの過渡的欠陥の下で等価な故障確率を持つことを誤って仮定するため, 基本的に不正確であることを示す。
本稿では, 過渡的故障下でのDNN変数の故障確率を推定し, ハードウェアによる正しいRA推定を行うアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.342290194156091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Deep Neural Networks (DNNs) are increasingly deployed in safety critical
and privacy sensitive applications such as autonomous driving and biometric
authentication, it is critical to understand the fault-tolerance nature of
DNNs. Prior work primarily focuses on metrics such as Failures In Time (FIT)
rate and the Silent Data Corruption (SDC) rate, which quantify how often a
device fails. Instead, this paper focuses on quantifying the DNN accuracy given
that a transient error has occurred, which tells us how well a network behaves
when a transient error occurs. We call this metric Resiliency Accuracy (RA). We
show that existing RA formulation is fundamentally inaccurate, because it
incorrectly assumes that software variables (model weights/activations) have
equal faulty probability under hardware transient faults. We present an
algorithm that captures the faulty probabilities of DNN variables under
transient faults and, thus, provides correct RA estimations validated by
hardware. To accelerate RA estimation, we reformulate RA calculation as a Monte
Carlo integration problem, and solve it using importance sampling driven by DNN
specific heuristics. Using our lightweight RA estimation method, we show that
transient faults lead to far greater accuracy degradation than what todays DNN
resiliency tools estimate. We show how our RA estimation tool can help design
more resilient DNNs by integrating it with a Network Architecture Search
framework.
- Abstract(参考訳): Deep Neural Networks(DNN)は、自律運転や生体認証など、安全でプライバシーに敏感なアプリケーションにますますデプロイされているため、DNNのフォールトトレランスの性質を理解することが重要である。
先行研究は主に、デバイスの障害頻度を定量化する、時間内障害率(fit)やサイレントデータ破損率(sdc)などのメトリクスに焦点を当てている。
そこで本論文では,過渡的エラーが発生した場合のネットワークの振る舞いを示す,過渡的エラーが発生した場合のdnn精度の定量化に注目する。
このメトリックレジリエンス精度(ra:metric resiliency accuracy)と呼ぶ。
ハードウェア過渡的障害下でソフトウェア変数(モデル重み/アクティベーション)が同じ故障確率を持つと誤って仮定しているため、既存のra定式化は基本的に不正確である。
本稿では, 過渡的故障下でのDNN変数の故障確率を推定し, ハードウェアによる正しいRA推定を行うアルゴリズムを提案する。
RA推定を高速化するため,モンテカルロ積分問題としてRA計算を再構成し,DNN固有ヒューリスティックによる重要サンプリングを用いて解く。
軽量RA推定法を用いて, 過渡断層が現在のDNNレジリエンスツールの推定よりもはるかに高い精度の劣化をもたらすことを示す。
ra推定ツールは,ネットワークアーキテクチャ検索フレームワークと統合することにより,レジリエントなdnnの設計にどのように役立つかを示す。
関連論文リスト
- Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - CRAFT: Criticality-Aware Fault-Tolerance Enhancement Techniques for
Emerging Memories-Based Deep Neural Networks [7.566423455230909]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンと自然言語処理アプリケーションにとって最も効果的なプログラミングパラダイムとして登場した。
本稿では,NVMベースのDNNの信頼性を高めるために,CRAFT(Criticality-Aware Fault-Tolerance Enhancement Techniques)を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:39:11Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Exploring Fault-Energy Trade-offs in Approximate DNN Hardware
Accelerators [2.9649783577150837]
異なるAxDNNの層幅およびビット幅の耐障害性およびエネルギー解析について述べる。
その結果、AxDNNsの耐障害性がエネルギー効率にかかっていることが示された。
論文 参考訳(メタデータ) (2021-01-08T05:52:12Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Interval Neural Networks: Uncertainty Scores [11.74565957328407]
我々は、事前訓練された深層ニューラルネットワーク(DNN)の出力における不確実性スコアを生成する高速で非ベイズ的手法を提案する。
このインターバルニューラルネットワーク(INN)は、インターバル値パラメータを持ち、インターバル演算を用いてその入力を伝搬する。
画像再構成タスクの数値実験において,予測誤差の代用としてINNの実用性を実証する。
論文 参考訳(メタデータ) (2020-03-25T18:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。