論文の概要: Supporting Safety Analysis of Image-processing DNNs through
Clustering-based Approaches
- arxiv url: http://arxiv.org/abs/2301.13506v2
- Date: Wed, 20 Sep 2023 10:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 00:38:20.562577
- Title: Supporting Safety Analysis of Image-processing DNNs through
Clustering-based Approaches
- Title(参考訳): クラスタリングによる画像処理DNNの安全性解析支援
- Authors: Mohammed Oualid Attaoui, Hazem Fahmy, Fabrizio Pastore and Lionel
Briand
- Abstract要約: 安全クリティカルな文脈におけるディープニューラルネットワーク(DNN)の採用は、その結果を説明する効果的な手段が欠如しているため、しばしば防止される。
本稿では,DNN故障の根本原因分析のための99種類のパイプラインの実験的評価について報告する。
- 参考スコア(独自算出の注目度): 2.362412515574206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of deep neural networks (DNNs) in safety-critical contexts is
often prevented by the lack of effective means to explain their results,
especially when they are erroneous. In our previous work, we proposed a
white-box approach (HUDD) and a black-box approach (SAFE) to automatically
characterize DNN failures. They both identify clusters of similar images from a
potentially large set of images leading to DNN failures. However, the analysis
pipelines for HUDD and SAFE were instantiated in specific ways according to
common practices, deferring the analysis of other pipelines to future work. In
this paper, we report on an empirical evaluation of 99 different pipelines for
root cause analysis of DNN failures. They combine transfer learning,
autoencoders, heatmaps of neuron relevance, dimensionality reduction
techniques, and different clustering algorithms. Our results show that the best
pipeline combines transfer learning, DBSCAN, and UMAP. It leads to clusters
almost exclusively capturing images of the same failure scenario, thus
facilitating root cause analysis. Further, it generates distinct clusters for
each root cause of failure, thus enabling engineers to detect all the unsafe
scenarios. Interestingly, these results hold even for failure scenarios that
are only observed in a small percentage of the failing images.
- Abstract(参考訳): 安全クリティカルな文脈におけるディープニューラルネットワーク(dnn)の採用は、その結果を説明する効果的な手段の欠如、特に誤用によってしばしば妨げられる。
先程の研究では,DNN障害を自動的に特徴付けるためのホワイトボックスアプローチ (HUDD) とブラックボックスアプローチ (SAFE) を提案した。
どちらも、DNNの障害につながる可能性のある大きなイメージから、類似したイメージのクラスタを識別する。
しかし、HUDDとSAFEの分析パイプラインは、一般的なプラクティスに従って特定の方法でインスタンス化され、他のパイプラインの分析を将来の作業に延期した。
本稿では,DNN故障の根本原因分析のための99種類のパイプラインの実験的評価について報告する。
それらは転送学習、オートエンコーダ、ニューロンの関連性のヒートマップ、次元削減技術、および異なるクラスタリングアルゴリズムを組み合わせる。
この結果から,最高のパイプラインは転送学習,DBSCAN,UMAPの組み合わせであることが示唆された。
クラスタは、ほぼ同じ障害シナリオの画像のみをキャプチャし、ルート原因分析を容易にする。
さらに、障害の根本原因ごとに異なるクラスタを生成し、エンジニアがすべての安全でないシナリオを検出できるようにする。
興味深いことに、これらの結果は、失敗する画像のごく一部でのみ観察される障害シナリオにも当てはまる。
関連論文リスト
- CausAdv: A Causal-based Framework for Detecting Adversarial Examples [0.0]
畳み込みニューラルネットワーク(CNN)は、入力の逆方向の摂動に対して脆弱である。
これらの入力は、自然画像とほとんど区別できないように見えるが、CNNアーキテクチャによって誤って分類されている。
本稿では,反実的推論に基づく逆例検出のための因果的フレームワークCausAdvを提案する。
論文 参考訳(メタデータ) (2024-10-29T22:57:48Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Understanding Adversarial Examples Through Deep Neural Network's
Response Surface and Uncertainty Regions [1.8047694351309205]
本研究は,DNN対逆例の根本原因について考察する。
既存の攻撃アルゴリズムは、わずかから数百の敵の例から生成される。
クリーンサンプルが1つ与えられた場合, クリーンサンプルの小さな近傍に, 無限に多くの逆画像が存在することを示す。
論文 参考訳(メタデータ) (2021-06-30T02:38:17Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning [1.6414392145248926]
本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2020-02-03T16:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。