論文の概要: A Low-cost Fault Corrector for Deep Neural Networks through Range
Restriction
- arxiv url: http://arxiv.org/abs/2003.13874v4
- Date: Mon, 29 Mar 2021 01:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:33:19.618067
- Title: A Low-cost Fault Corrector for Deep Neural Networks through Range
Restriction
- Title(参考訳): 距離制限による深部ニューラルネットワークの低コスト故障補正
- Authors: Zitao Chen, Guanpeng Li and Karthik Pattabiraman
- Abstract要約: 安全クリティカルドメインのディープニューラルネットワーク(DNN)は、深刻な信頼性を懸念している。
本研究は,過渡的故障による故障を再計算せずに直接修正する低コストな故障修正器であるRangeを提案する。
- 参考スコア(独自算出の注目度): 1.8907108368038215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of deep neural networks (DNNs) in safety-critical domains has
engendered serious reliability concerns. A prominent example is hardware
transient faults that are growing in frequency due to the progressive
technology scaling, and can lead to failures in DNNs.
This work proposes Ranger, a low-cost fault corrector, which directly
rectifies the faulty output due to transient faults without re-computation.
DNNs are inherently resilient to benign faults (which will not cause output
corruption), but not to critical faults (which can result in erroneous output).
Ranger is an automated transformation to selectively restrict the value ranges
in DNNs, which reduces the large deviations caused by critical faults and
transforms them to benign faults that can be tolerated by the inherent
resilience of the DNNs. Our evaluation on 8 DNNs demonstrates Ranger
significantly increases the error resilience of the DNNs (by 3x to 50x), with
no loss in accuracy, and with negligible overheads.
- Abstract(参考訳): 安全クリティカルドメインにおけるディープニューラルネットワーク(DNN)の採用は、深刻な信頼性の懸念を招いている。
顕著な例は、ハードウェアの過渡的障害であり、プログレッシブな技術のスケーリングによって頻度が高くなり、DNNの障害につながる可能性がある。
本研究は,過渡的故障による故障を再計算せずに直接修正する低コストな故障修正器であるRangeを提案する。
DNNは本来、良性の欠陥(出力の破損を引き起こすことはない)に対して回復力があるが、クリティカルな欠陥(誤った出力をもたらす可能性がある)には耐えられない。
RangerはDNNの値範囲を選択的に制限する自動変換であり、クリティカル障害による大きなずれを低減し、DNNの固有のレジリエンスによって許容される良質な障害に変換する。
8つのDNNに対する評価では、RangerはDNNの誤差レジリエンスを3倍から50倍に向上させ、精度を損なわず、オーバーヘッドも無視できることを示した。
関連論文リスト
- Cost-Effective Fault Tolerance for CNNs Using Parameter Vulnerability Based Hardening and Pruning [0.4660328753262075]
本稿では,ニューラルネットワークに誤り訂正を直接組み込むことにより,CNNのモデルレベル硬化手法を提案する。
提案手法は,TMRに基づく補正とほぼ同等の耐故障性を示すが,オーバーヘッドは大幅に減少する。
注目すべきは、硬化したpruned CNNは、硬化したun-prunedよりも最大24%高速であることだ。
論文 参考訳(メタデータ) (2024-05-17T09:42:44Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - CRAFT: Criticality-Aware Fault-Tolerance Enhancement Techniques for
Emerging Memories-Based Deep Neural Networks [7.566423455230909]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンと自然言語処理アプリケーションにとって最も効果的なプログラミングパラダイムとして登場した。
本稿では,NVMベースのDNNの信頼性を高めるために,CRAFT(Criticality-Aware Fault-Tolerance Enhancement Techniques)を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:39:11Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Thales: Formulating and Estimating Architectural Vulnerability Factors
for DNN Accelerators [6.8082132475259405]
本稿では,過渡的エラーが発生した場合のネットワークの挙動を推定し,過渡的エラーが発生した場合の精度を定量化することに焦点を当てる。
既存のレジリエンス精度 (RA) の定式化は, ソフトウェア変数がハードウェアの過渡的欠陥の下で等価な故障確率を持つことを誤って仮定するため, 基本的に不正確であることを示す。
本稿では, 過渡的故障下でのDNN変数の故障確率を推定し, ハードウェアによる正しいRA推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-05T23:16:20Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Exploring Fault-Energy Trade-offs in Approximate DNN Hardware
Accelerators [2.9649783577150837]
異なるAxDNNの層幅およびビット幅の耐障害性およびエネルギー解析について述べる。
その結果、AxDNNsの耐障害性がエネルギー効率にかかっていることが示された。
論文 参考訳(メタデータ) (2021-01-08T05:52:12Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。