論文の概要: Towards the Quantification of Safety Risks in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2009.06114v1
- Date: Sun, 13 Sep 2020 23:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:35:36.237271
- Title: Towards the Quantification of Safety Risks in Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークにおける安全リスクの定量化に向けて
- Authors: Peipei Xu and Wenjie Ruan and Xiaowei Huang
- Abstract要約: 本稿では,ネットワークの判断と人間の知覚との整合性を求めることによって,安全性のリスクを定義する。
リスクの定量化には、安全リスクが存在しない安全な標準球の最大半径を取る。
この論文では、既知の敵の例、到達可能性の例、不変例に加えて、新しいタイプのリスク - 不確実な例を特定する。
- 参考スコア(独自算出の注目度): 9.161046484753841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safety concerns on the deep neural networks (DNNs) have been raised when they
are applied to critical sectors. In this paper, we define safety risks by
requesting the alignment of the network's decision with human perception. To
enable a general methodology for quantifying safety risks, we define a generic
safety property and instantiate it to express various safety risks. For the
quantification of risks, we take the maximum radius of safe norm balls, in
which no safety risk exists. The computation of the maximum safe radius is
reduced to the computation of their respective Lipschitz metrics - the
quantities to be computed. In addition to the known adversarial example,
reachability example, and invariant example, in this paper we identify a new
class of risk - uncertainty example - on which humans can tell easily but the
network is unsure. We develop an algorithm, inspired by derivative-free
optimization techniques and accelerated by tensor-based parallelization on
GPUs, to support efficient computation of the metrics. We perform evaluations
on several benchmark neural networks, including ACSC-Xu, MNIST, CIFAR-10, and
ImageNet networks. The experiments show that, our method can achieve
competitive performance on safety quantification in terms of the tightness and
the efficiency of computation. Importantly, as a generic approach, our method
can work with a broad class of safety risks and without restrictions on the
structure of neural networks.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)に対する安全性の懸念は、重要なセクタに適用されるときに高められている。
本稿では,ネットワークの決定と人間の知覚との整合を求めることにより,安全リスクを定義する。
安全リスクを定量化するための一般的な方法論を実現するために,汎用安全特性を定義し,様々な安全リスクを表現するためにインスタンス化する。
リスクの定量化には、安全リスクが存在しない安全な標準球の最大半径を取る。
最大安全半径の計算は、計算すべき量であるそれぞれのリプシッツ計量の計算に還元される。
この論文では、既知の敵の例、到達可能性の例、不変例に加えて、人間が容易に知ることができるがネットワークが不確実である新しいタイプのリスク - 不確実な例 - を特定する。
提案手法は,gpu上でのテンソル並列化によって高速化され,メトリクスの効率的な計算を支援する。
我々は、ACSC-Xu、MNIST、CIFAR-10、ImageNetなど、いくつかのベンチマークニューラルネットワークで評価を行う。
実験により, 計算の厳密性と効率の観点から, 安全性定量化の競争性能を向上できることを示した。
重要なのは、汎用的なアプローチとして、この手法は、ニューラルネットワークの構造に制約なく、幅広い種類の安全性リスクに対応できるということです。
関連論文リスト
- Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - A computationally lightweight safe learning algorithm [1.9295598343317182]
確率論的安全保証を提供するが,ナダラヤ・ワトソン推定器を利用する安全な学習アルゴリズムを提案する。
提案手法は,シミュレーションした7自由度ロボットマニピュレータ上で,理論的保証を行い,それらを安全な学習アルゴリズムに組み込んだ数値実験を行う。
論文 参考訳(メタデータ) (2023-09-07T12:21:22Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks [142.67349734180445]
ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
論文 参考訳(メタデータ) (2023-08-01T02:07:47Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Self-Repairing Neural Networks: Provable Safety for Deep Networks via
Dynamic Repair [16.208330991060976]
本稿では,非リレーショナル安全性制約の違反を動的に修復するニューラルネットワーク分類器を構築する方法を提案する。
我々のアプローチは、確実に安全な出力が得られる新しい自己修復層に基づいている。
提案手法は,GPU上で効率的に実行されるベクトル化計算を用いて実装可能であることを示す。
論文 参考訳(メタデータ) (2021-07-23T20:08:52Z) - Fast Falsification of Neural Networks using Property Directed Testing [0.1529342790344802]
本稿では,反例の探索を指示するニューラルネットワークの偽造アルゴリズムを提案する。
提案アルゴリズムは, 微分自由サンプリングに基づく最適化手法を用いる。
フェールシフィケーション手順は、他の検証ツールが安全でないと報告しているすべての安全でないインスタンスを検出する。
論文 参考訳(メタデータ) (2021-04-26T09:16:27Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。