論文の概要: Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing
- arxiv url: http://arxiv.org/abs/2312.05890v1
- Date: Sun, 10 Dec 2023 13:51:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:00:57.385544
- Title: Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing
- Title(参考訳): 効率的な境界伝搬と並列計算による#DNN検証ツールのスケーリング
- Authors: Luca Marzari, Gabriele Roncolato and Alessandro Farinelli
- Abstract要約: ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
- 参考スコア(独自算出の注目度): 57.49021927832259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are powerful tools that have shown extraordinary
results in many scenarios, ranging from pattern recognition to complex robotic
problems. However, their intricate designs and lack of transparency raise
safety concerns when applied in real-world applications. In this context,
Formal Verification (FV) of DNNs has emerged as a valuable solution to provide
provable guarantees on the safety aspect. Nonetheless, the binary answer (i.e.,
safe or unsafe) could be not informative enough for direct safety interventions
such as safety model ranking or selection. To address this limitation, the FV
problem has recently been extended to the counting version, called
#DNN-Verification, for the computation of the size of the unsafe regions in a
given safety property's domain. Still, due to the complexity of the problem,
existing solutions struggle to scale on real-world robotic scenarios, where the
DNN can be large and complex. To address this limitation, inspired by advances
in FV, in this work, we propose a novel strategy based on reachability analysis
combined with Symbolic Linear Relaxation and parallel computing to enhance the
efficiency of existing exact and approximate FV for DNN counters. The empirical
evaluation on standard FV benchmarks and realistic robotic scenarios shows a
remarkable improvement in scalability and efficiency, enabling the use of such
techniques even for complex robotic applications.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、パターン認識から複雑なロボット問題に至るまで、多くのシナリオで驚くべき結果を示す強力なツールである。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用された場合の安全性の懸念を引き起こす。
この文脈において、DNNの形式検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
それにもかかわらず、バイナリ回答(すなわち、安全か安全か)は、安全モデルのランク付けや選択のような直接的安全介入に十分な情報がない可能性がある。
この制限に対処するため、FV問題は、最近#DNN-Verificationと呼ばれるカウントバージョンに拡張され、与えられた安全プロパティのドメイン内の安全でない領域のサイズを計算した。
それでも、問題の複雑さのため、既存のソリューションは、DNNが大規模で複雑な実世界のロボットシナリオにスケールするのに苦労している。
本研究は,FVの進歩に触発されたこの限界に対処するため,DNNカウンタの高精度かつ近似的なFVの効率を高めるために,シンボリック線形緩和と並列計算を組み合わせた到達可能性解析に基づく新しい戦略を提案する。
標準のfvベンチマークと現実的なロボットシナリオの実証的な評価は、スケーラビリティと効率が著しく向上し、複雑なロボットアプリケーションでもそのようなテクニックが利用できることを示した。
関連論文リスト
- Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Enhancing Deep Learning with Scenario-Based Override Rules: a Case Study [0.0]
ディープニューラルネットワーク(DNN)は、ソフトウェア開発ツールキットにおいて重要な手段となっている。
DNNは非常に不透明で、不慣れな入力に遭遇すると予期せぬ振る舞いをする。
1つの有望なアプローチは、手作りのオーバーライドルールでDNNベースのシステムを拡張することである。
論文 参考訳(メタデータ) (2023-01-19T15:06:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Generating Formal Safety Assurances for High-Dimensional Reachability [4.523089386111081]
Hamilton-Jacobi (HJ) の到達可能性分析は、自律システムの安全性と性能を保証するための一般的な公式な検証ツールである。
最近提案されたDeepReachと呼ばれる手法は、正弦波型ニューラルネットワークPDEソルバを高次元到達性問題に活用することで、この問題を克服している。
本稿では,DeepReach解の誤差を計算し,真の到達可能なチューブを安全に近似する手法を提案する。
論文 参考訳(メタデータ) (2022-09-25T22:15:53Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。