論文の概要: Assumption Generation for the Verification of Learning-Enabled
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2305.18372v1
- Date: Sat, 27 May 2023 23:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 22:02:19.073116
- Title: Assumption Generation for the Verification of Learning-Enabled
Autonomous Systems
- Title(参考訳): 学習可能自律システムの検証のための推定生成
- Authors: Corina Pasareanu, Ravi Mangal, Divya Gopinath, and Huafeng Yu
- Abstract要約: 本稿では,システムレベルの安全性特性の形式的検証のための前提保証型構成手法を提案する。
本稿では,自律飛行領域から得られたケーススタディについて述べる。
- 参考スコア(独自算出の注目度): 7.580719272198119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing safety guarantees for autonomous systems is difficult as these
systems operate in complex environments that require the use of
learning-enabled components, such as deep neural networks (DNNs) for visual
perception. DNNs are hard to analyze due to their size (they can have thousands
or millions of parameters), lack of formal specifications (DNNs are typically
learnt from labeled data, in the absence of any formal requirements), and
sensitivity to small changes in the environment. We present an assume-guarantee
style compositional approach for the formal verification of system-level safety
properties of such autonomous systems. Our insight is that we can analyze the
system in the absence of the DNN perception components by automatically
synthesizing assumptions on the DNN behaviour that guarantee the satisfaction
of the required safety properties. The synthesized assumptions are the weakest
in the sense that they characterize the output sequences of all the possible
DNNs that, plugged into the autonomous system, guarantee the required safety
properties. The assumptions can be leveraged as run-time monitors over a
deployed DNN to guarantee the safety of the overall system; they can also be
mined to extract local specifications for use during training and testing of
DNNs. We illustrate our approach on a case study taken from the autonomous
airplanes domain that uses a complex DNN for perception.
- Abstract(参考訳): これらのシステムは、視覚知覚のためのディープニューラルネットワーク(dnn)のような学習可能なコンポーネントの使用を必要とする複雑な環境で動作するため、自律システムに対する安全性保証の提供は困難である。
DNNは、そのサイズ(数千から数百万のパラメータを持つことができる)、正式な仕様の欠如(DNNは通常、正式な要件がなければラベル付きデータから学習される)、環境の小さな変更に対する敏感さなど、分析が難しい。
本稿では,このような自律システムにおけるシステムレベルの安全性特性の形式的検証のための仮定-保証型構成手法を提案する。
我々は,安全特性の満足度を保証するdnn行動の仮定を自動合成することにより,dnn知覚成分の欠如時にシステムを解析できることを考察した。
合成された仮定は、自律システムに接続された全ての可能なdnnの出力シーケンスを特徴付けるという意味で最も弱い。
仮定はデプロイされたDNN上で実行時のモニタとして利用でき、システム全体の安全性を保証する。
我々は、複雑なdnnを知覚に使用する自律飛行機ドメインのケーススタディに、我々のアプローチを説明する。
関連論文リスト
- Unifying Qualitative and Quantitative Safety Verification of DNN-Controlled Systems [18.049286149364075]
深部強化学習技術の急速な進歩は、ディープニューラルネットワーク(DNN)を利用した安全クリティカルシステムの監視を可能にする
既存の検証アプローチのほとんどは定性的アプローチに依存しており、主に到達可能性分析を利用している。
本稿では,定性的・定量的な安全性検証問題を統一するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-02T09:31:51Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Closed-loop Analysis of Vision-based Autonomous Systems: A Case Study [16.776221250574075]
本稿では,形式的確率論的分析手法を実験自律システムに適用したケーススタディを提案する。
本稿では,ローカルなDNN分析をランタイムガードとして活用し,システム全体の安全性を高める方法について述べる。
論文 参考訳(メタデータ) (2023-02-06T18:56:20Z) - Enhancing Deep Learning with Scenario-Based Override Rules: a Case Study [0.0]
ディープニューラルネットワーク(DNN)は、ソフトウェア開発ツールキットにおいて重要な手段となっている。
DNNは非常に不透明で、不慣れな入力に遭遇すると予期せぬ振る舞いをする。
1つの有望なアプローチは、手作りのオーバーライドルールでDNNベースのシステムを拡張することである。
論文 参考訳(メタデータ) (2023-01-19T15:06:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Zero-bias Deep Neural Network for Quickest RF Signal Surveillance [14.804498377638696]
モノのインターネット(IoT)は、十分な数のRFデバイスがRFチャネルを介して情報を接続し、共有できるようにすることによって、現代社会を再構築している。
本稿ではRF信号監視のためのディープラーニングフレームワークを提供する。
我々は、Deep Neural Networks(DNN)とQuickest Detection(QD)を統合して、シーケンシャルな信号監視スキームを形成する。
論文 参考訳(メタデータ) (2021-10-12T07:48:57Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。