論文の概要: Concurrent Self-testing of Neural Networks Using Uncertainty Fingerprint
- arxiv url: http://arxiv.org/abs/2401.01458v1
- Date: Tue, 2 Jan 2024 23:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:48:37.310548
- Title: Concurrent Self-testing of Neural Networks Using Uncertainty Fingerprint
- Title(参考訳): 不確かさ指紋を用いたニューラルネットワークの同時自己検査
- Authors: Soyed Tuhin Ahmed, Mehdi B. tahoori
- Abstract要約: 本研究では,不確実な指紋を生成するために特別に設計されたデュアルヘッドNNトポロジーと,エマフォ単発画像におけるNNの一次予測を提案する。
既存の作業と比較すると、メモリオーバーヘッドを最大243.7ドル MB削減し、乗算および累積(MAC)操作を最大10000Times$に削減し、偽陽性率を最大89%まで削減する。
- 参考スコア(独自算出の注目度): 0.32634122554914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks (NNs) are increasingly used in always-on safety-critical
applications deployed on hardware accelerators (NN-HAs) employing various
memory technologies. Reliable continuous operation of NN is essential for
safety-critical applications. During online operation, NNs are susceptible to
single and multiple permanent and soft errors due to factors such as radiation,
aging, and thermal effects. Explicit NN-HA testing methods cannot detect
transient faults during inference, are unsuitable for always-on applications,
and require extensive test vector generation and storage. Therefore, in this
paper, we propose the \emph{uncertainty fingerprint} approach representing the
online fault status of NN. Furthermore, we propose a dual head NN topology
specifically designed to produce uncertainty fingerprints and the primary
prediction of the NN in \emph{a single shot}. During the online operation, by
matching the uncertainty fingerprint, we can concurrently self-test NNs with up
to $100\%$ coverage with a low false positive rate while maintaining a similar
performance of the primary task. Compared to existing works, memory overhead is
reduced by up to $243.7$ MB, multiply and accumulate (MAC) operation is reduced
by up to $10000\times$, and false-positive rates are reduced by up to $89\%$.
- Abstract(参考訳): ニューラルネットワーク(NN)は、様々なメモリ技術を用いてハードウェアアクセラレータ(NN-HA)にデプロイされる、常時オンの安全クリティカルなアプリケーションでますます利用されている。
NNの信頼性の高い連続動作は安全クリティカルな応用に不可欠である。
オンライン運用中、NNは放射線、老化、熱影響などの要因により、単一および複数永久およびソフトエラーの影響を受ける。
明示的なNN-HAテストメソッドは、推論中に過渡的障害を検出することができず、常時オンのアプリケーションには適さない。
そこで本稿では,NN のオンライン障害状況を表す 'emph{uncertainty fingerprint} アプローチを提案する。
さらに,不確かさの指紋を生成するために特別に設計された2つの頭部nnトポロジーと,nnの一次予測法を提案する。
オンライン操作中、不確実性指紋をマッチングすることにより、プライマリタスクと同様のパフォーマンスを維持しながら、偽陽性率を低く抑えながら、最大100\%のカバレッジで自己テストを行うことができる。
既存の作品と比較すると、メモリオーバーヘッドは最大で243.7$ mb削減され、乗算と累積(mac)操作は最大10000\times$まで削減され、偽陽性率は最大で$89\%削減される。
関連論文リスト
- Provably Safe Neural Network Controllers via Differential Dynamic Logic [0.0]
本稿では、微分動的論理(dL)とNN検証を組み合わせた最初のアプローチについて紹介する。
Mosaic: ピースワイド線形NNにおける実算術特性に対する最初の音響および完全検証手法を提案する。
適応型巡航制御や空中衝突回避を含むケーススタディの評価は、VerSAILLEとMosaicの汎用性を実証している。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Enhancing Fault Resilience of QNNs by Selective Neuron Splitting [1.1091582432763736]
ディープニューラルネットワーク(DNN)の複雑さに取り組むために量子ニューラルネットワーク(QNN)が登場した。
本稿では,ニューロン脆弱性因子(NVF)に基づく臨界ニューロンの同定にQNNを用いた最近の解析的レジリエンス評価手法を提案する。
計算部分を再設計することなく、加速器内に軽量補正ユニット(LCU)を設計できる臨界ニューロン分割法が提案されている。
論文 参考訳(メタデータ) (2023-06-16T17:11:55Z) - Generalization Guarantees of Gradient Descent for Multi-Layer Neural
Networks [55.86300309474023]
多層NNに対する勾配降下(GD)の総合的安定性と一般化解析を行う。
2層NNと3層NNの両方において、GDアルゴリズムに対するO(1/sqrtn)$の過剰リスク率を導出する。
論文 参考訳(メタデータ) (2023-05-26T12:51:38Z) - One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection [0.6091702876917281]
本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
論文 参考訳(メタデータ) (2023-05-16T11:06:09Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - enpheeph: A Fault Injection Framework for Spiking and Compressed Deep
Neural Networks [10.757663798809144]
スパイク・圧縮型ディープニューラルネットワーク(DNN)の故障注入フレームワークであるenpheephについて述べる。
ランダムかつ増加する故障数を注入することにより,DNNはパラメータあたり7 x 10 (-7) の故障率で精度を低下させることができ,精度は40%以上低下することを示した。
論文 参考訳(メタデータ) (2022-07-31T00:30:59Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。