論文の概要: Confidence Composition for Monitors of Verification Assumptions
- arxiv url: http://arxiv.org/abs/2111.03782v1
- Date: Wed, 3 Nov 2021 18:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-14 15:11:40.332283
- Title: Confidence Composition for Monitors of Verification Assumptions
- Title(参考訳): 検証仮定のモニタに対する信頼度構成
- Authors: Ivan Ruchkin, Matthew Cleaveland, Radoslav Ivanov, Pengyuan Lu, Taylor
Carpenter, Oleg Sokolsky, Insup Lee
- Abstract要約: 本稿では,検証仮説の信頼性をモニタリングする3段階の枠組みを提案する。
2つのケーススタディにおいて、構成されたモニターが構成成分よりも改善し、安全違反を予測できることを実証した。
- 参考スコア(独自算出の注目度): 3.500426151907193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Closed-loop verification of cyber-physical systems with neural network
controllers offers strong safety guarantees under certain assumptions. It is,
however, difficult to determine whether these guarantees apply at run time
because verification assumptions may be violated. To predict safety violations
in a verified system, we propose a three-step framework for monitoring the
confidence in verification assumptions. First, we represent the sufficient
condition for verified safety with a propositional logical formula over
assumptions. Second, we build calibrated confidence monitors that evaluate the
probability that each assumption holds. Third, we obtain the confidence in the
verification guarantees by composing the assumption monitors using a
composition function suitable for the logical formula. Our framework provides
theoretical bounds on the calibration and conservatism of compositional
monitors. In two case studies, we demonstrate that the composed monitors
improve over their constituents and successfully predict safety violations.
- Abstract(参考訳): ニューラルネットワークコントローラによるサイバー物理システムのクローズドループ検証は、特定の前提の下で強力な安全性保証を提供する。
しかしながら、これらの保証が実行時に適用されるかどうかを判断することは困難である。
検証システムの安全性違反を予測するため,検証仮説の信頼性をモニタリングする3段階の枠組みを提案する。
まず,前提よりも命題論理式で検証された安全性の十分条件を示す。
第二に、各仮定が持つ確率を評価する正当性モニタを構築する。
第3に,論理式に適した合成関数を用いて仮定モニタを構成することにより,検証保証の信頼性を得る。
構成モニターのキャリブレーションと保守性に関する理論的境界を提供する。
2つのケーススタディにおいて、構成したモニターが構成成分を改良し、安全性侵害をうまく予測できることを実証した。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Confident Object Detection via Conformal Prediction and Conformal Risk
Control: an Application to Railway Signaling [0.0]
鉄道信号検出のための信頼性予測器構築のための共形予測手法を実証する。
我々のアプローチは、列車オペレーターと最先端のオブジェクト検出器の観点から撮影された画像を含む、新しいデータセットに基づいている。
論文 参考訳(メタデータ) (2023-04-12T08:10:13Z) - Unifying Evaluation of Machine Learning Safety Monitors [0.0]
ランタイムモニタは、予測エラーを検出し、オペレーション中にシステムを安全な状態に保つために開発された。
本稿では、モニタの安全性(安全利得)と使用後の残りの安全ギャップ(残留ハザード)の3つの統合安全指向指標を紹介する。
3つのユースケース(分類、ドローン着陸、自律走行)は、提案されたメトリクスの観点から、文献からのメトリクスをどのように表現できるかを示すために使用される。
論文 参考訳(メタデータ) (2022-08-31T07:17:42Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Demonstrating Software Reliability using Possibly Correlated Tests:
Insights from a Conservative Bayesian Approach [2.152298082788376]
我々は、実行が独立したことを「疑う」という非公式な概念を定式化する。
我々は、独立仮定が、評価において保守主義を損なうことができる範囲を明らかにする技術を開発する。
論文 参考訳(メタデータ) (2022-08-16T20:27:47Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Synthesizing Safe Policies under Probabilistic Constraints with
Reinforcement Learning and Bayesian Model Checking [4.797216015572358]
制約条件下での強化学習者の要求仕様作成のためのフレームワークを提案する。
本研究では,制約満足度に対するエージェントの信頼度が,学習過程における最適化と安全性のバランスをとる上で有用な信号であることを示す。
論文 参考訳(メタデータ) (2020-05-08T08:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。