論文の概要: Negative Selection Approach to support Formal Verification and
Validation of BlackBox Models' Input Constraints
- arxiv url: http://arxiv.org/abs/2209.01411v1
- Date: Sat, 3 Sep 2022 12:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:31:42.840789
- Title: Negative Selection Approach to support Formal Verification and
Validation of BlackBox Models' Input Constraints
- Title(参考訳): BlackBoxモデルの入力制約の形式的検証と検証を支援する否定的選択手法
- Authors: Abdul-Rauf Nuhu, Kishor Datta Gupta, Wendwosen Bellete Bedada, Mahmoud
Nabil, Lydia Asrat Zeleke, Abdollah Homaifar, and Edward Tunstel
- Abstract要約: 本稿では,分割された入力空間における安全でない候補部分要求を探索するためのメタヒューリスティックなアプローチについて検討する。
提案手法では,候補の安全でない領域を特定できる負選択アルゴリズム(NSA)を提案する。
- 参考スコア(独自算出の注目度): 1.729691314594007
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating unsafe sub-requirements from a partitioned input space to support
verification-guided test cases for formal verification of black-box models is a
challenging problem for researchers. The size of the search space makes
exhaustive search computationally impractical. This paper investigates a
meta-heuristic approach to search for unsafe candidate sub-requirements in
partitioned input space. We present a Negative Selection Algorithm (NSA) for
identifying the candidates' unsafe regions within given safety properties. The
Meta-heuristic capability of the NSA algorithm made it possible to estimate
vast unsafe regions while validating a subset of these regions. We utilize a
parallel execution of partitioned input space to produce safe areas. The NSA
based on the prior knowledge of the safe regions is used to identify candidate
unsafe region areas and the Marabou framework is then used to validate the NSA
results. Our preliminary experimentation and evaluation show that the procedure
finds candidate unsafe sub-requirements when validated with the Marabou
framework with high precision.
- Abstract(参考訳): ブラックボックスモデルの形式検証のための検証誘導テストケースをサポートするために、分割入力空間から安全でないサブ要求を生成することは、研究者にとって難しい問題である。
探索空間のサイズは、徹底的な探索を非現実的にする。
本稿では,分割入力空間における安全でない候補部分要求を探索するためのメタヒューリスティックなアプローチについて検討する。
提案手法では,候補の安全でない領域を特定できる負選択アルゴリズム(NSA)を提案する。
NSAアルゴリズムのメタヒューリスティックな能力により、これらの領域のサブセットを検証しながら、巨大な安全でない領域を推定できるようになった。
分割された入力空間の並列実行を利用して安全な領域を生成する。
安全領域の事前知識に基づくNSAは、候補の安全でない地域を特定するために使用され、マラブーフレームワークは、NSAの結果を検証するために使用される。
予備実験および評価の結果,marabouフレームワークを用いて精度の高い検証を行った場合,安全でないサブ要件が得られた。
関連論文リスト
- Information-Theoretic Safe Bayesian Optimization [59.758009422067005]
そこでは、未知の(安全でない)制約に反するパラメータを評価することなく、未知の関数を最適化することを目的としている。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T14:31:10Z) - Safe Exploration in Reinforcement Learning: A Generalized Formulation
and Algorithms [8.789204441461678]
本稿では,安全な探査のためのメタアルゴリズムであるMASEの形で,安全な探査(GSE)問題の解を提案する。
提案アルゴリズムは,グリッドワールドおよびセーフティガイムベンチマークにおける最先端アルゴリズムよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-10-05T00:47:09Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Information-Theoretic Safe Exploration with Gaussian Processes [89.31922008981735]
未知の(安全でない)制約に反するパラメータを評価できないような、逐次的な意思決定タスクについて検討する。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2022-12-09T15:23:58Z) - Provable Safe Reinforcement Learning with Binary Feedback [62.257383728544006]
状態, アクションペアの安全性に対するバイナリフィードバックを提供するオフラインオラクルへのアクセスを与えられた場合, 証明可能な安全なRLの問題を考える。
我々は,その設定に対してブラックボックスPAC RLアルゴリズムに与えられた任意のMDP設定に適用可能な,新しいメタアルゴリズムSABREを提案する。
論文 参考訳(メタデータ) (2022-10-26T05:37:51Z) - Near-Optimal Multi-Agent Learning for Safe Coverage Control [76.99020416197631]
マルチエージェントのカバレッジ制御問題では、エージェントは環境をナビゲートして、ある密度のカバレッジを最大化する位置に到達する。
本稿では,エージェントの安全性を保ちながら,その密度を効率よく学習し,カバレッジ問題を概ね解決することを目的とする。
まず、安全を確実に保証しながら、有限時間で最適範囲に近づいた結果を挙げる。
論文 参考訳(メタデータ) (2022-10-12T16:33:34Z) - Safe Exploration Method for Reinforcement Learning under Existence of
Disturbance [1.1470070927586016]
我々は、障害の存在下での強化学習における安全な探索問題に対処する。
制御対象と外乱の部分的事前知識を用いた安全な探索手法を提案する。
逆振り子と4バー並列リンクロボットマニピュレータの数値シミュレーションにより,提案手法の有効性と有効性について述べる。
論文 参考訳(メタデータ) (2022-09-30T13:00:33Z) - Learning to be safe, in finite time [4.189643331553922]
本稿では,未知の環境での安全な行動の学習を,確率が保証されても,無拘束の探索試験を必要とせずに実現できるという考えを提唱する。
我々は、標準的マルチアームバンディット問題に焦点をあて、安全学習における探索保存トレードオフの本質的な研究を模索する。
論文 参考訳(メタデータ) (2020-10-01T14:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。