論文の概要: Understanding Local Robustness of Deep Neural Networks under Natural
Variations
- arxiv url: http://arxiv.org/abs/2010.04821v2
- Date: Sat, 23 Jan 2021 02:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:14:09.788773
- Title: Understanding Local Robustness of Deep Neural Networks under Natural
Variations
- Title(参考訳): 自然変動下における深部ニューラルネットワークの局所ロバスト性理解
- Authors: Ziyuan Zhong, Yuchi Tian, Baishakhi Ray
- Abstract要約: ディープニューラルネットワーク(DNN)は今日、広範囲な設定でデプロイされている。
近年の研究では、DNNは入力データのわずかに変化しても脆であることが示された。
- 参考スコア(独自算出の注目度): 18.638234554232994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are being deployed in a wide range of settings
today, from safety-critical applications like autonomous driving to commercial
applications involving image classifications. However, recent research has
shown that DNNs can be brittle to even slight variations of the input data.
Therefore, rigorous testing of DNNs has gained widespread attention.
While DNN robustness under norm-bound perturbation got significant attention
over the past few years, our knowledge is still limited when natural variants
of the input images come. These natural variants, e.g. a rotated or a rainy
version of the original input, are especially concerning as they can occur
naturally in the field without any active adversary and may lead to undesirable
consequences. Thus, it is important to identify the inputs whose small
variations may lead to erroneous DNN behaviors. The very few studies that
looked at DNN's robustness under natural variants, however, focus on estimating
the overall robustness of DNNs across all the test data rather than localizing
such error-producing points. This work aims to bridge this gap.
To this end, we study the local per-input robustness properties of the DNNs
and leverage those properties to build a white-box (DeepRobust-W) and a
black-box (DeepRobust-B) tool to automatically identify the non-robust points.
Our evaluation of these methods on three DNN models spanning three widely used
image classification datasets shows that they are effective in flagging points
of poor robustness. In particular, DeepRobust-W and DeepRobust-B are able to
achieve an F1 score of up to 91.4% and 99.1%, respectively. We further show
that DeepRobust-W can be applied to a regression problem in another domain. Our
evaluation on three self-driving car models demonstrates that DeepRobust-W is
effective in identifying points of poor robustness with F1 score up to 78.9%.
- Abstract(参考訳): Deep Neural Networks(DNN)は今日、自動運転のような安全クリティカルなアプリケーションから、画像分類を含む商用アプリケーションまで、幅広い環境で展開されている。
しかし、最近の研究では、DNNは入力データのわずかなばらつきにも弱いことが示されている。
そのため、DNNの厳格な試験が注目されている。
ノルム境界摂動下でのDNNのロバスト性は,ここ数年で注目されたが,入力画像の自然な変化が現れると,私たちの知識は限られている。
これらの自然変種(例えば、回転または元の入力の雨バージョン)は、特に、フィールドで活発な敵がいなく自然に起こる可能性があり、望ましくない結果をもたらす可能性があるため、関係している。
したがって、小さなバリエーションが誤ったDNN行動を引き起こす可能性のある入力を特定することが重要である。
しかし、自然変種下でのDNNの堅牢性に着目したごく少数の研究は、そのようなエラー発生点をローカライズするのではなく、全てのテストデータにわたってDNNの全体的な堅牢性を評価することに重点を置いている。
この仕事はこのギャップを埋めることを目的としている。
この目的のために,dnnの局所的な入力毎のロバスト性特性を調査し,それらの特性を利用してホワイトボックス(deeprobust-w)とブラックボックス(deeprobust-b)ツールを構築し,ロバストでない点を自動的に識別する。
3つの画像分類データセットにまたがる3つのDNNモデルを用いて,これらの手法の評価を行った。
特に、deeprobust-wとdeeprobust-bはそれぞれ91.4%と99.1%のf1スコアを達成できる。
さらに,DeepRobust-Wが他の領域の回帰問題に適用可能であることを示す。
3つの自動運転車モデルに対する評価は、DeepRobust-WがF1スコアが78.9%まで低いロバスト性点を特定するのに有効であることを示している。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - SAfER: Layer-Level Sensitivity Assessment for Efficient and Robust
Neural Network Inference [20.564198591600647]
ディープニューラルネットワーク(DNN)は、ほとんどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示す。
自律運転や医療画像などの重要な応用には、その行動の調査も必要である。
DNNの属性は、DNNの予測と入力の関係を研究することである。
論文 参考訳(メタデータ) (2023-08-09T07:45:51Z) - gRoMA: a Tool for Measuring the Global Robustness of Deep Neural
Networks [3.2228025627337864]
ディープニューラルネットワーク(DNN)は最先端技術の最前線にあり、さまざまな複雑なタスクにおいて顕著なパフォーマンスを実現している。
航空宇宙分野や自動車分野などの安全クリティカルシステムへの統合は、敵の入力の脅威のために大きな課題となる。
本稿では,DNNのグローバルな分類的ロバスト性を測定するための確率論的アプローチを実装した,革新的でスケーラブルなツールであるgRoMAを紹介する。
論文 参考訳(メタデータ) (2023-01-05T20:45:23Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Supporting DNN Safety Analysis and Retraining through Heatmap-based
Unsupervised Learning [1.6414392145248926]
本稿では,DNNエラーの根本原因の自動同定を支援するHUDDを提案する。
HUDDは、結果に対する全てのDNNニューロンの関連性を捉えたヒートマップにクラスタリングアルゴリズムを適用することで、根本原因を特定する。
また、HUDDは識別された画像クラスタと関連性に基づいて自動的に選択される画像でDNNを再訓練する。
論文 参考訳(メタデータ) (2020-02-03T16:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。