論文の概要: Concurrent Self-testing of Neural Networks Using Uncertainty Fingerprint
- arxiv url: http://arxiv.org/abs/2401.01458v1
- Date: Tue, 2 Jan 2024 23:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:48:37.310548
- Title: Concurrent Self-testing of Neural Networks Using Uncertainty Fingerprint
- Title(参考訳): 不確かさ指紋を用いたニューラルネットワークの同時自己検査
- Authors: Soyed Tuhin Ahmed, Mehdi B. tahoori
- Abstract要約: 本研究では,不確実な指紋を生成するために特別に設計されたデュアルヘッドNNトポロジーと,エマフォ単発画像におけるNNの一次予測を提案する。
既存の作業と比較すると、メモリオーバーヘッドを最大243.7ドル MB削減し、乗算および累積(MAC)操作を最大10000Times$に削減し、偽陽性率を最大89%まで削減する。
- 参考スコア(独自算出の注目度): 0.32634122554914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks (NNs) are increasingly used in always-on safety-critical
applications deployed on hardware accelerators (NN-HAs) employing various
memory technologies. Reliable continuous operation of NN is essential for
safety-critical applications. During online operation, NNs are susceptible to
single and multiple permanent and soft errors due to factors such as radiation,
aging, and thermal effects. Explicit NN-HA testing methods cannot detect
transient faults during inference, are unsuitable for always-on applications,
and require extensive test vector generation and storage. Therefore, in this
paper, we propose the \emph{uncertainty fingerprint} approach representing the
online fault status of NN. Furthermore, we propose a dual head NN topology
specifically designed to produce uncertainty fingerprints and the primary
prediction of the NN in \emph{a single shot}. During the online operation, by
matching the uncertainty fingerprint, we can concurrently self-test NNs with up
to $100\%$ coverage with a low false positive rate while maintaining a similar
performance of the primary task. Compared to existing works, memory overhead is
reduced by up to $243.7$ MB, multiply and accumulate (MAC) operation is reduced
by up to $10000\times$, and false-positive rates are reduced by up to $89\%$.
- Abstract(参考訳): ニューラルネットワーク(NN)は、様々なメモリ技術を用いてハードウェアアクセラレータ(NN-HA)にデプロイされる、常時オンの安全クリティカルなアプリケーションでますます利用されている。
NNの信頼性の高い連続動作は安全クリティカルな応用に不可欠である。
オンライン運用中、NNは放射線、老化、熱影響などの要因により、単一および複数永久およびソフトエラーの影響を受ける。
明示的なNN-HAテストメソッドは、推論中に過渡的障害を検出することができず、常時オンのアプリケーションには適さない。
そこで本稿では,NN のオンライン障害状況を表す 'emph{uncertainty fingerprint} アプローチを提案する。
さらに,不確かさの指紋を生成するために特別に設計された2つの頭部nnトポロジーと,nnの一次予測法を提案する。
オンライン操作中、不確実性指紋をマッチングすることにより、プライマリタスクと同様のパフォーマンスを維持しながら、偽陽性率を低く抑えながら、最大100\%のカバレッジで自己テストを行うことができる。
既存の作品と比較すると、メモリオーバーヘッドは最大で243.7$ mb削減され、乗算と累積(mac)操作は最大10000\times$まで削減され、偽陽性率は最大で$89\%削減される。
関連論文リスト
- Fast and Reliable $N-k$ Contingency Screening with Input-Convex Neural Networks [3.490170135411753]
電力系統のオペレータは、グリッドの停止や障害の防止や信頼性の高い運用を保証するために、ディスパッチ決定が実行可能であることを保証しなければなりません。
たとえ小さな$k$グリッドコンポーネントであっても、すべての$N - k$コンセントの実現可能性を確認する。
本研究では,入力カスケード型ニューラルネットワーク(ICNN)を用いた同時スクリーニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-01T15:38:09Z) - Neural Network Verification with Branch-and-Bound for General Nonlinearities [63.39918329535165]
ブランチ・アンド・バウンド(BaB)は、ニューラルネットワーク(NN)検証において最も効果的な手法の一つである。
我々は、一般的な非線形性にBaBを実行し、一般的なアーキテクチャでNNを検証する汎用フレームワークGenBaBを開発した。
我々は、Sigmoid、Tanh、Sine、GeLUなどの活性化機能を持つNNを含む幅広いNNの検証におけるGenBaBの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-31T17:51:07Z) - Few-Shot Testing: Estimating Uncertainty of Memristive Deep Neural Networks Using One Bayesian Test Vector [0.0]
我々は,memristorベースのCIMハードウェア上に実装されたNNのモデル不確かさを推定できるテストベクトル生成フレームワークを提案する。
提案手法は, 異なるモデル次元, タスク, 故障率, 変動ノイズに基づいて評価し, メモリオーバーヘッドを0.024ドルに抑えながら, 100%のカバレッジを連続的に達成可能であることを示す。
論文 参考訳(メタデータ) (2024-05-29T08:53:16Z) - Provably Safe Neural Network Controllers via Differential Dynamic Logic [2.416907802598482]
NNCS検証のための制御理論の再利用を可能にする最初の一般手法を提案する。
dLの安全な制御エンベロープに基づいて、NN検証によって証明されたNNの仕様を導出する。
本稿では,NNCS の無限時間安全に関する dL 証明によって,仕様に忠実な NNCS の証明が反映されていることを示す。
論文 参考訳(メタデータ) (2024-02-16T16:15:25Z) - Generalization Guarantees of Gradient Descent for Multi-Layer Neural
Networks [55.86300309474023]
多層NNに対する勾配降下(GD)の総合的安定性と一般化解析を行う。
2層NNと3層NNの両方において、GDアルゴリズムに対するO(1/sqrtn)$の過剰リスク率を導出する。
論文 参考訳(メタデータ) (2023-05-26T12:51:38Z) - One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection [0.6091702876917281]
本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
論文 参考訳(メタデータ) (2023-05-16T11:06:09Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。