論文の概要: Confidence Composition for Monitors of Verification Assumptions
- arxiv url: http://arxiv.org/abs/2111.03782v1
- Date: Wed, 3 Nov 2021 18:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-14 15:11:40.332283
- Title: Confidence Composition for Monitors of Verification Assumptions
- Title(参考訳): 検証仮定のモニタに対する信頼度構成
- Authors: Ivan Ruchkin, Matthew Cleaveland, Radoslav Ivanov, Pengyuan Lu, Taylor
Carpenter, Oleg Sokolsky, Insup Lee
- Abstract要約: 本稿では,検証仮説の信頼性をモニタリングする3段階の枠組みを提案する。
2つのケーススタディにおいて、構成されたモニターが構成成分よりも改善し、安全違反を予測できることを実証した。
- 参考スコア(独自算出の注目度): 3.500426151907193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Closed-loop verification of cyber-physical systems with neural network
controllers offers strong safety guarantees under certain assumptions. It is,
however, difficult to determine whether these guarantees apply at run time
because verification assumptions may be violated. To predict safety violations
in a verified system, we propose a three-step framework for monitoring the
confidence in verification assumptions. First, we represent the sufficient
condition for verified safety with a propositional logical formula over
assumptions. Second, we build calibrated confidence monitors that evaluate the
probability that each assumption holds. Third, we obtain the confidence in the
verification guarantees by composing the assumption monitors using a
composition function suitable for the logical formula. Our framework provides
theoretical bounds on the calibration and conservatism of compositional
monitors. In two case studies, we demonstrate that the composed monitors
improve over their constituents and successfully predict safety violations.
- Abstract(参考訳): ニューラルネットワークコントローラによるサイバー物理システムのクローズドループ検証は、特定の前提の下で強力な安全性保証を提供する。
しかしながら、これらの保証が実行時に適用されるかどうかを判断することは困難である。
検証システムの安全性違反を予測するため,検証仮説の信頼性をモニタリングする3段階の枠組みを提案する。
まず,前提よりも命題論理式で検証された安全性の十分条件を示す。
第二に、各仮定が持つ確率を評価する正当性モニタを構築する。
第3に,論理式に適した合成関数を用いて仮定モニタを構成することにより,検証保証の信頼性を得る。
構成モニターのキャリブレーションと保守性に関する理論的境界を提供する。
2つのケーススタディにおいて、構成したモニターが構成成分を改良し、安全性侵害をうまく予測できることを実証した。
関連論文リスト
- Incorporating Recklessness to Collaborative Filtering based Recommender
Systems [63.732639864601914]
本稿では,行列因数分解に基づくレコメンデータシステムの学習過程における「無謀性」という新しい用語の導入を提案する。
実験結果から、無謀性はリスクレギュレーションだけでなく、予測の量や品質も改善することが示された。
論文 参考訳(メタデータ) (2023-08-03T21:34:00Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Confident Object Detection via Conformal Prediction and Conformal Risk
Control: an Application to Railway Signaling [0.0]
鉄道信号検出のための信頼性予測器構築のための共形予測手法を実証する。
我々のアプローチは、列車オペレーターと最先端のオブジェクト検出器の観点から撮影された画像を含む、新しいデータセットに基づいている。
論文 参考訳(メタデータ) (2023-04-12T08:10:13Z) - Safe Perception-Based Control under Stochastic Sensor Uncertainty using
Conformal Prediction [27.515056747751053]
本稿では,知覚マップの推定不確かさを定量化する知覚ベース制御フレームワークを提案する。
また、これらの不確実性表現を制御設計に統合する。
本稿では,LiDAR対応F1/10thカーに対する認識制御の有効性を示す。
論文 参考訳(メタデータ) (2023-04-01T01:45:53Z) - Unifying Evaluation of Machine Learning Safety Monitors [0.0]
ランタイムモニタは、予測エラーを検出し、オペレーション中にシステムを安全な状態に保つために開発された。
本稿では、モニタの安全性(安全利得)と使用後の残りの安全ギャップ(残留ハザード)の3つの統合安全指向指標を紹介する。
3つのユースケース(分類、ドローン着陸、自律走行)は、提案されたメトリクスの観点から、文献からのメトリクスをどのように表現できるかを示すために使用される。
論文 参考訳(メタデータ) (2022-08-31T07:17:42Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Demonstrating Software Reliability using Possibly Correlated Tests:
Insights from a Conservative Bayesian Approach [2.152298082788376]
我々は、実行が独立したことを「疑う」という非公式な概念を定式化する。
我々は、独立仮定が、評価において保守主義を損なうことができる範囲を明らかにする技術を開発する。
論文 参考訳(メタデータ) (2022-08-16T20:27:47Z) - Safe Reinforcement Learning via Confidence-Based Filters [78.39359694273575]
我々は,標準的な強化学習技術を用いて学習した名目政策に対して,国家安全の制約を認定するための制御理論的アプローチを開発する。
我々は、正式な安全保証を提供し、我々のアプローチの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2022-07-04T11:43:23Z) - Learning Robust Output Control Barrier Functions from Safe Expert
Demonstrations [50.37808220291108]
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
我々は,自律走行シミュレータCARLAのアルゴリズムを実証的に検証し,RGBカメラ画像から安全な制御法を学習する方法を実証する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Synthesizing Safe Policies under Probabilistic Constraints with
Reinforcement Learning and Bayesian Model Checking [4.797216015572358]
制約条件下での強化学習者の要求仕様作成のためのフレームワークを提案する。
本研究では,制約満足度に対するエージェントの信頼度が,学習過程における最適化と安全性のバランスをとる上で有用な信号であることを示す。
論文 参考訳(メタデータ) (2020-05-08T08:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。