論文の概要: Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning
- arxiv url: http://arxiv.org/abs/2002.00863v4
- Date: Thu, 22 Apr 2021 12:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:23:01.243542
- Title: Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning
- Title(参考訳): ヒートマップに基づく教師なし学習によるDNNの安全分析とリトレーニング支援
- Authors: Hazem Fahmy, Fabrizio Pastore, Mojtaba Bagherzadeh, Lionel Briand
- Abstract要約: 本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
- 参考スコア(独自算出の注目度): 1.6414392145248926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are increasingly important in safety-critical
systems, for example in their perception layer to analyze images.
Unfortunately, there is a lack of methods to ensure the functional safety of
DNN-based components. We observe three major challenges with existing practices
regarding DNNs in safety-critical systems: (1) scenarios that are
underrepresented in the test set may lead to serious safety violation risks,
but may, however, remain unnoticed; (2) characterizing such high-risk scenarios
is critical for safety analysis; (3) retraining DNNs to address these risks is
poorly supported when causes of violations are difficult to determine. To
address these problems in the context of DNNs analyzing images, we propose
HUDD, an approach that automatically supports the identification of root causes
for DNN errors. HUDD identifies root causes by applying a clustering algorithm
to heatmaps capturing the relevance of every DNN neuron on the DNN outcome.
Also, HUDD retrains DNNs with images that are automatically selected based on
their relatedness to the identified image clusters. We evaluated HUDD with DNNs
from the automotive domain. HUDD was able to identify all the distinct root
causes of DNN errors, thus supporting safety analysis. Also, our retraining
approach has shown to be more effective at improving DNN accuracy than existing
approaches.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、例えばイメージを解析する認識層において、安全クリティカルなシステムにおいてますます重要になっている。
残念ながら、DNNベースのコンポーネントの機能的安全性を保証する方法がない。
安全クリティカルシステムにおけるdnnに関する既存の実践における3つの大きな課題を観察する。(1) テストセットで過小評価されたシナリオは重大な安全侵害リスクを生じさせる可能性があるが、それでも気づかないかもしれない。2) このようなリスクの高いシナリオを特徴付けることは安全性分析に不可欠である。
画像解析におけるこれらの問題に対処するため,DNNエラーの根本原因の同定を自動支援するHUDDを提案する。
HUDDは、DNN結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することにより、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
自動車分野のDNNを用いてHUDDを評価した。
HUDDはDNNエラーの根本原因の特定が可能であり、安全性解析がサポートされた。
また,本手法は既存手法よりもDNN精度の向上に有効であることが示された。
関連論文リスト
- The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - HUDD: A tool to debug DNNs for safety analysis [1.1240669509034296]
我々は,Deep Neural Networks(DNN)によって実現されたシステムの安全性分析プラクティスを支援するHUDDを提案する。
HUDDは、行列にクラスタリングアルゴリズムを適用することで、根本原因を特定する。
HUDDは、識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2022-10-15T18:40:52Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。