論文の概要: DeepDiagnosis: Automatically Diagnosing Faults and Recommending
Actionable Fixes in Deep Learning Programs
- arxiv url: http://arxiv.org/abs/2112.04036v1
- Date: Tue, 7 Dec 2021 23:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 01:07:01.437079
- Title: DeepDiagnosis: Automatically Diagnosing Faults and Recommending
Actionable Fixes in Deep Learning Programs
- Title(参考訳): Deep Diagnosis: ディープラーニングプログラムにおける障害の自動診断と推奨可能な修正
- Authors: Mohammad Wardat, Breno Dantas Cruz, Wei Le, Hridesh Rajan
- Abstract要約: 本稿では,障害の局所化,エラー症状の報告,DNNプログラムの修正を提案する新しいアプローチであるDeepDiagnosisを提案する。
DeepDiagnosisは、他のアプローチと比較して、障害の検出、バグのローカライゼーション、および症状の識別の最も優れた能力を示す。
- 参考スコア(独自算出の注目度): 12.917211542949786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are used in a wide variety of applications.
However, as in any software application, DNN-based apps are afflicted with
bugs. Previous work observed that DNN bug fix patterns are different from
traditional bug fix patterns. Furthermore, those buggy models are non-trivial
to diagnose and fix due to inexplicit errors with several options to fix them.
To support developers in locating and fixing bugs, we propose DeepDiagnosis, a
novel debugging approach that localizes the faults, reports error symptoms and
suggests fixes for DNN programs. In the first phase, our technique monitors a
training model, periodically checking for eight types of error conditions.
Then, in case of problems, it reports messages containing sufficient
information to perform actionable repairs to the model. In the evaluation, we
thoroughly examine 444 models -53 real-world from GitHub and Stack Overflow,
and 391 curated by AUTOTRAINER. DeepDiagnosis provides superior accuracy when
compared to UMLUAT and DeepLocalize. Our technique is faster than AUTOTRAINER
for fault localization. The results show that our approach can support
additional types of models, while state-of-the-art was only able to handle
classification ones. Our technique was able to report bugs that do not manifest
as numerical errors during training. Also, it can provide actionable insights
for fix whereas DeepLocalize can only report faults that lead to numerical
errors during training. DeepDiagnosis manifests the best capabilities of fault
detection, bug localization, and symptoms identification when compared to other
approaches.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は様々なアプリケーションで使われている。
しかしながら、他のソフトウェアアプリケーションと同様に、DNNベースのアプリケーションはバグに悩まされている。
これまでの研究によると、DNNのバグ修正パターンは従来のバグ修正パターンとは異なる。
さらに、これらのバグモデルでは、未解決エラーによる診断と修正が簡単ではない。
バグの特定と修正を支援するために,障害のローカライズ,エラー症状の報告,DNNプログラムの修正提案といった,新しいデバッグアプローチであるDeepDiagnosisを提案する。
第1段階では,本手法は訓練モデルを監視し,周期的に8種類のエラー条件をチェックする。
そして、問題が発生した場合、モデルに実行可能な修正を行うのに十分な情報を含むメッセージを報告する。
評価では、GitHubとStack Overflowによる444のモデル-53の実世界と、AUTOTRAINERによる391のキュレーションを徹底的に検討した。
DeepDiagnosisはUMLUATやDeepLocalizeと比較して精度が高い。
我々の手法は断層定位においてAUTOTRAINERよりも高速である。
その結果,本手法では追加型のモデルをサポートできるが,最新技術では分類のみに対応できることがわかった。
我々の技術は、トレーニング中に数値エラーとして現れないバグを報告することができた。
また、deeplocalizeはトレーニング中に数値エラーにつながる障害のみを報告できるが、修正のための実行可能な洞察を提供することもできる。
DeepDiagnosisは、他のアプローチと比較して、障害の検出、バグのローカライゼーション、および症状の識別の最も優れた能力を示す。
関連論文リスト
- Improved Detection and Diagnosis of Faults in Deep Neural Networks Using Hierarchical and Explainable Classification [3.2623791881739033]
本稿では,DeFaultについて紹介する。Deep Neural Networks (DNN)プログラムの欠陥を検出し診断する新しい手法である。
提案手法は, 実世界のDNNプログラムの検出において94%のリコール, 63%のリコールを達成し, 欠陥の根本原因の診断において, 最先端技術よりも3.92%~11.54%高いパフォーマンスを示した。
論文 参考訳(メタデータ) (2025-01-22T00:55:09Z) - Leveraging Data Characteristics for Bug Localization in Deep Learning Programs [21.563130049562357]
本稿では,Deep Learning (DL)プログラムにおける構造的バグの検出とローカライズを行うTheiaを提案する。
Theiaは40のバグギープログラムにおいて57/75のバグをローカライズすることに成功しているのに対し,NeuraLintは17/75のバグをローカライズする前に構造バグをローカライズできる最先端のアプローチである。
論文 参考訳(メタデータ) (2024-12-08T01:52:06Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - A Deep Dive into Large Language Models for Automated Bug Localization and Repair [12.756202755547024]
大規模言語モデル(LLM)は、自動プログラム修復(APR)など、様々なソフトウェアエンジニアリングタスクにおいて顕著な効果を示している。
本研究では,LSMを用いた自動バグ修正について深く検討する。
異なるLLMを用いてバグの局所化と修正を分離することにより、多様なコンテキスト情報の効果的な統合が可能になる。
Toggleは、CodeXGLUEコード改善ベンチマークで、新しい最先端(SOTA)パフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-17T17:48:18Z) - An Effective Data-Driven Approach for Localizing Deep Learning Faults [20.33411443073181]
問題パターンの学習にモデル機能を活用する新しいデータ駆動手法を提案する。
本手法は,手作業によるマッピングを必要とせず,バグ症状を根本原因に自動的に関連付ける。
以上の結果から,本手法は様々なバグタイプを効果的に検出・診断できることが示唆された。
論文 参考訳(メタデータ) (2023-07-18T03:28:39Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - DeepFD: Automated Fault Diagnosis and Localization for Deep Learning
Programs [15.081278640511998]
DeepFDは学習ベースの障害診断およびローカライゼーションフレームワークである。
フォールトローカライゼーションタスクを学習問題にマップする。
52%の欠陥DLプログラムを正しく診断し、最先端の成果によって達成された約半分(27%)と比較する。
論文 参考訳(メタデータ) (2022-05-04T08:15:56Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Black-Box Diagnosis and Calibration on GAN Intra-Mode Collapse: A Pilot
Study [116.05514467222544]
現在、GAN(Generative Adversarial Network)は驚くべきリアリズムの画像を生成することができる。
懸念の1つは、最先端のGANの学習分布が依然としてモード崩壊に悩まされているかどうかである。
本稿では,GANのモード内崩壊を診断し,新たなブラックボックス設定でそれを校正する方法について検討する。
論文 参考訳(メタデータ) (2021-07-23T06:03:55Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。