論文の概要: gRoMA: a Tool for Measuring Deep Neural Networks Global Robustness
- arxiv url: http://arxiv.org/abs/2301.02288v1
- Date: Thu, 5 Jan 2023 20:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:24:00.135942
- Title: gRoMA: a Tool for Measuring Deep Neural Networks Global Robustness
- Title(参考訳): groma: ディープニューラルネットワークのグローバルロバスト性を測定するツール
- Authors: Natan Levy and Raz Yerushalmi and Guy Katz
- Abstract要約: ディープニューラルネットワークを安全クリティカルシステムに統合することは難しい。
ディープニューラルネットワーク(DNN)は最先端技術であり、多くの重要なタスクにおいて優れたパフォーマンスを発揮する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are a state-of-the-art technology, capable of
outstanding performance in many key tasks. However, it is challenging to
integrate DNNs into safety-critical systems, such as those in the aerospace or
automotive domains, due to the risk of adversarial inputs: slightly perturbed
inputs that can cause the DNN to make grievous mistakes. Adversarial inputs
have been shown to plague even modern DNNs; and so the risks they pose must be
measured and mitigated to allow the safe deployment of DNNs in safety-critical
systems. Here, we present a novel and scalable tool called gRoMA, which uses a
statistical approach for formally measuring the global categorial robustness of
a DNN - i.e., the probability of randomly encountering an adversarial input for
a specific output category. Our tool operates on pre-trained, black-box
classification DNNs. It randomly generates input samples that belong to an
output category of interest, measures the DNN's susceptibility to adversarial
inputs around these inputs, and then aggregates the results to infer the
overall global robustness of the DNN up to some small bounded error. For
evaluation purposes, we used gRoMA to measure the global robustness of the
widespread Densenet DNN model over the CIFAR10 dataset and our results exposed
significant gaps in the robustness of the different output categories. This
experiment demonstrates the scalability of the new approach and showcases its
potential for allowing DNNs to be deployed within critical systems of interest.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は最先端技術であり、多くの重要なタスクにおいて優れたパフォーマンスを発揮する。
しかし、DNNを航空や自動車などの安全上重要なシステムに統合することは、敵の入力のリスクにより困難である。
敵の入力は近代的なDNNにも悩まされていることが示されており、安全クリティカルシステムへのDNNの安全な配備を可能にするために、それらが引き起こすリスクを計測・緩和する必要がある。
本稿では,DNNのグローバルな分類的ロバスト性(すなわち,特定の出力カテゴリに対する逆入力にランダムに遭遇する確率)を統計的に測定するために,gRoMAと呼ばれる新しいスケーラブルなツールを提案する。
我々のツールは、事前訓練されたブラックボックス分類DNNで動作する。
興味のある出力カテゴリに属する入力サンプルをランダムに生成し、これらの入力の周りの逆入力に対するDNNの感受性を測定し、結果を集約して、DNNの全体的ロバスト性を小さな境界誤差まで推測する。
評価のために,我々は,CIFAR10データセット上での広帯域DNNモデルのグローバルロバスト性の測定にgRoMAを用い,その結果,異なる出力カテゴリのロバスト性に有意な差が認められた。
この実験は、新しいアプローチのスケーラビリティを示し、重要なシステム内でdnnをデプロイできるようにする可能性を示している。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges [75.37448213291668]
本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
論文 参考訳(メタデータ) (2024-03-07T13:10:37Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Understanding Local Robustness of Deep Neural Networks under Natural
Variations [18.638234554232994]
ディープニューラルネットワーク(DNN)は今日、広範囲な設定でデプロイされている。
近年の研究では、DNNは入力データのわずかに変化しても脆であることが示された。
論文 参考訳(メタデータ) (2020-10-09T21:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。