論文の概要: HUDD: A tool to debug DNNs for safety analysis
- arxiv url: http://arxiv.org/abs/2210.08356v1
- Date: Sat, 15 Oct 2022 18:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:40:45.426036
- Title: HUDD: A tool to debug DNNs for safety analysis
- Title(参考訳): HUDD:安全分析のためのDNNのデバッグツール
- Authors: Hazem Fahmy, Fabrizio Pastore, Lionel Briand
- Abstract要約: 我々は,Deep Neural Networks(DNN)によって実現されたシステムの安全性分析プラクティスを支援するHUDDを提案する。
HUDDは、行列にクラスタリングアルゴリズムを適用することで、根本原因を特定する。
HUDDは、識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
- 参考スコア(独自算出の注目度): 1.1240669509034296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HUDD, a tool that supports safety analysis practices for systems
enabled by Deep Neural Networks (DNNs) by automatically identifying the root
causes for DNN errors and retraining the DNN. HUDD stands for Heatmap-based
Unsupervised Debugging of DNNs, it automatically clusters error-inducing images
whose results are due to common subsets of DNN neurons. The intent is for the
generated clusters to group error-inducing images having common
characteristics, that is, having a common root cause. HUDD identifies root
causes by applying a clustering algorithm to matrices (i.e., heatmaps)
capturing the relevance of every DNN neuron on the DNN outcome. Also, HUDD
retrains DNNs with images that are automatically selected based on their
relatedness to the identified image clusters. Our empirical evaluation with
DNNs from the automotive domain have shown that HUDD automatically identifies
all the distinct root causes of DNN errors, thus supporting safety analysis.
Also, our retraining approach has shown to be more effective at improving DNN
accuracy than existing approaches. A demo video of HUDD is available at
https://youtu.be/drjVakP7jdU.
- Abstract(参考訳): 我々は、DNNエラーの根本原因を自動的に特定し、DNNを再訓練することで、ディープニューラルネットワーク(DNN)によって実現されるシステムの安全性分析プラクティスを支援するHUDDを提案する。
HUDDはHeatmapベースのDNNのUnsupervised Debuggingの略で、DNNニューロンの共通部分集合に起因するエラー誘発画像を自動的にクラスタ化する。
その意図は、生成したクラスタが共通の特徴、すなわち共通の根本原因を持つエラー誘発画像をグループ化することである。
HUDDは、DNNの結果に対する全てのDNNニューロンの関連性を捉える行列(すなわち熱マップ)にクラスタリングアルゴリズムを適用することにより、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
自動車分野のDNNによる実証評価の結果,HUDDはDNNエラーの根本原因を自動同定し,安全性解析をサポートすることがわかった。
また,本手法は既存手法よりもDNN精度の向上に有効であることが示された。
HUDDのデモビデオはhttps://youtu.be/drjVakP7jdUで公開されている。
関連論文リスト
- DelBugV: Delta-Debugging Neural Network Verifiers [0.0]
ディープニューラルネットワーク(DNN)は、ボード全体の多様なシステムにおいて重要なコンポーネントになりつつある。
彼らの成功にもかかわらず、しばしば悲惨な結果となり、これがそれらを正式に検証することに大きな関心を惹き付けている。
本稿では,DNN検証器上でデルタデバッギングを自動的に行うDelBugVという新しいツールを提案する。
論文 参考訳(メタデータ) (2023-05-29T18:42:03Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Enhancing Graph Neural Network-based Fraud Detectors against Camouflaged
Fraudsters [78.53851936180348]
近年の実証研究,すなわち特徴カモフラージュと関係カモフラージュの2種類のカモフラージュを紹介した。
既存のGNNはこれらの2つのカモフラージュに対処していない。
カモフラージュ抵抗型GNN(CARE-GNN)と呼ばれる新しいモデルを提案し、カモフラージュに対する3つのユニークなモジュールを用いたGNN集約プロセスを強化する。
論文 参考訳(メタデータ) (2020-08-19T22:33:12Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification [71.45033077934723]
我々はディープニューラルネットワーク(DNN)xベクトル話者検証システムにベイズニューラルネットワーク(BNN)を組み込む。
BNNによって提供される重みの不確実性モデリングにより、システムは評価データにより良い一般化を期待できる。
その結果、BNNの相対的なEERの2.66%と2.32%の減少により、短文と短文のドメイン評価が可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-08T14:35:12Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning [1.6414392145248926]
本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2020-02-03T16:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。