論文の概要: Improved Detection and Diagnosis of Faults in Deep Neural Networks Using Hierarchical and Explainable Classification
- arxiv url: http://arxiv.org/abs/2501.12560v1
- Date: Wed, 22 Jan 2025 00:55:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:16.131663
- Title: Improved Detection and Diagnosis of Faults in Deep Neural Networks Using Hierarchical and Explainable Classification
- Title(参考訳): 階層的・説明可能な分類を用いた深部ニューラルネットワークの故障検出と診断の改善
- Authors: Sigma Jahan, Mehil B Shah, Parvez Mahbub, Mohammad Masudur Rahman,
- Abstract要約: 本稿では,DeFaultについて紹介する。Deep Neural Networks (DNN)プログラムの欠陥を検出し診断する新しい手法である。
提案手法は, 実世界のDNNプログラムの検出において94%のリコール, 63%のリコールを達成し, 欠陥の根本原因の診断において, 最先端技術よりも3.92%~11.54%高いパフォーマンスを示した。
- 参考スコア(独自算出の注目度): 3.2623791881739033
- License:
- Abstract: Deep Neural Networks (DNN) have found numerous applications in various domains, including fraud detection, medical diagnosis, facial recognition, and autonomous driving. However, DNN-based systems often suffer from reliability issues due to their inherent complexity and the stochastic nature of their underlying models. Unfortunately, existing techniques to detect faults in DNN programs are either limited by the types of faults (e.g., hyperparameter or layer) they support or the kind of information (e.g., dynamic or static) they use. As a result, they might fall short of comprehensively detecting and diagnosing the faults. In this paper, we present DEFault (Detect and Explain Fault) -- a novel technique to detect and diagnose faults in DNN programs. It first captures dynamic (i.e., runtime) features during model training and leverages a hierarchical classification approach to detect all major fault categories from the literature. Then, it captures static features (e.g., layer types) from DNN programs and leverages explainable AI methods (e.g., SHAP) to narrow down the root cause of the fault. We train and evaluate DEFault on a large, diverse dataset of ~14.5K DNN programs and further validate our technique using a benchmark dataset of 52 real-life faulty DNN programs. Our approach achieves ~94% recall in detecting real-world faulty DNN programs and ~63% recall in diagnosing the root causes of the faults, demonstrating 3.92% - 11.54% higher performance than that of state-of-the-art techniques. Thus, DEFault has the potential to significantly improve the reliability of DNN programs by effectively detecting and diagnosing the faults.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、詐欺検出、診断、顔認識、自律運転など、さまざまな領域で多くの応用を見出している。
しかし、DNNベースのシステムは、その固有の複雑さと基礎となるモデルの確率的性質のために、しばしば信頼性の問題に悩まされる。
残念ながら、DNNプログラムの障害を検出する既存の技術は、サポート対象の障害の種類(例えば、ハイパーパラメータや層)や、使用する情報の種類(例えば、動的、静的)によって制限されている。
その結果、断層を包括的に検出し診断することができない可能性がある。
本稿では,DNNプログラムの欠陥を検出し診断する新しい手法であるDeFault(Detect and Explain Fault)を提案する。
モデルトレーニング中に動的(すなわち実行時)な特徴をキャプチャし、階層的な分類アプローチを利用して、文献からすべての主要な障害カテゴリを検出する。
そして、DNNプログラムから静的な特徴(例:レイヤタイプ)をキャプチャし、説明可能なAIメソッド(例:SHAP)を活用して、障害の根本原因を絞り込む。
我々はDFaultを14.5KのDNNプログラムの多種多様なデータセットでトレーニングし評価し、52個の実生活障害DNNプログラムのベンチマークデータセットを用いてその手法をさらに検証した。
提案手法は,実世界の欠陥DNNプログラムの検出において約94%のリコールを実現し,欠陥の根本原因の診断において約63%のリコールを実現し,最新技術よりも3.92%~11.54%高いパフォーマンスを示した。
したがって、DFaultは障害を効果的に検出し、診断することにより、DNNプログラムの信頼性を大幅に向上する可能性がある。
関連論文リスト
- An Effective Data-Driven Approach for Localizing Deep Learning Faults [20.33411443073181]
問題パターンの学習にモデル機能を活用する新しいデータ駆動手法を提案する。
本手法は,手作業によるマッピングを必要とせず,バグ症状を根本原因に自動的に関連付ける。
以上の結果から,本手法は様々なバグタイプを効果的に検出・診断できることが示唆された。
論文 参考訳(メタデータ) (2023-07-18T03:28:39Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - CRAFT: Criticality-Aware Fault-Tolerance Enhancement Techniques for
Emerging Memories-Based Deep Neural Networks [7.566423455230909]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンと自然言語処理アプリケーションにとって最も効果的なプログラミングパラダイムとして登場した。
本稿では,NVMベースのDNNの信頼性を高めるために,CRAFT(Criticality-Aware Fault-Tolerance Enhancement Techniques)を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:39:11Z) - enpheeph: A Fault Injection Framework for Spiking and Compressed Deep
Neural Networks [10.757663798809144]
スパイク・圧縮型ディープニューラルネットワーク(DNN)の故障注入フレームワークであるenpheephについて述べる。
ランダムかつ増加する故障数を注入することにより,DNNはパラメータあたり7 x 10 (-7) の故障率で精度を低下させることができ,精度は40%以上低下することを示した。
論文 参考訳(メタデータ) (2022-07-31T00:30:59Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Exposing Previously Undetectable Faults in Deep Neural Networks [11.20625929625154]
本稿では,他の手法では不可能なDNNの欠陥を見つける新しい手法を提案する。
生成機械学習を活用することで、高いレベルの特徴によって異なる新しいテストインプットを生成することができる。
提案手法は, 現状のDNNにおいて, 故意に注入された断層だけでなく, 新たな断層も検出できることを実証する。
論文 参考訳(メタデータ) (2021-06-01T15:37:30Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。