論文の概要: Conformal Safety Shielding for Imperfect-Perception Agents
- arxiv url: http://arxiv.org/abs/2506.17275v1
- Date: Thu, 12 Jun 2025 17:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.847876
- Title: Conformal Safety Shielding for Imperfect-Perception Agents
- Title(参考訳): 不完全知覚剤のコンフォーマル安全遮蔽
- Authors: William Scarbro, Calum Imrie, Sinem Getir Yaman, Kavan Fatehi, Corina S. Pasareanu, Radu Calinescu, Ravi Mangal,
- Abstract要約: 学習成分を不完全な知覚に用いた自律エージェントにおける安全制御の問題点を考察する。
本研究では,認識誤差下でのランタイム安全保証を実現するシールド構造を提案する。
- 参考スコア(独自算出の注目度): 7.5422935754618825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of safe control in discrete autonomous agents that use learned components for imperfect perception (or more generally, state estimation) from high-dimensional observations. We propose a shield construction that provides run-time safety guarantees under perception errors by restricting the actions available to an agent, modeled as a Markov decision process, as a function of the state estimates. Our construction uses conformal prediction for the perception component, which guarantees that for each observation, the predicted set of estimates includes the actual state with a user-specified probability. The shield allows an action only if it is allowed for all the estimates in the predicted set, resulting in a local safety guarantee. We also articulate and prove a global safety property of existing shield constructions for perfect-perception agents bounding the probability of reaching unsafe states if the agent always chooses actions prescribed by the shield. We illustrate our approach with a case-study of an experimental autonomous system that guides airplanes on taxiways using high-dimensional perception DNNs.
- Abstract(参考訳): 高次元観測から学習した成分を不完全な知覚(あるいはより一般的には状態推定)に用いた自律エージェントにおける安全制御の問題を考える。
状態推定関数としてマルコフ決定プロセスとしてモデル化されたエージェントに利用可能な動作を制限することにより、認識エラー下でのランタイム安全保証を提供するシールド構造を提案する。
この構成では,各観測値に対して,予測された推定値のセットが,ユーザ特定確率の実際の状態を含むことを保証している。
シールドは、予測されたセットのすべての推定に対して許可された場合にのみアクションを許可し、その結果、局所的な安全性を保証する。
また、エージェントが常にシールドによって規定された動作を選択する場合、安全でない状態に達する確率を制限したパーセプションエージェントに対して、既存のシールド構築のグローバルな安全性特性を明確化し、証明する。
我々は,高次元認識DNNを用いて,タクシー道上で航空機を誘導する実験的な自律システムのケーススタディを用いて,我々のアプローチを説明する。
関連論文リスト
- Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Safe Perception-Based Control under Stochastic Sensor Uncertainty using
Conformal Prediction [27.515056747751053]
本稿では,知覚マップの推定不確かさを定量化する知覚ベース制御フレームワークを提案する。
また、これらの不確実性表現を制御設計に統合する。
本稿では,LiDAR対応F1/10thカーに対する認識制御の有効性を示す。
論文 参考訳(メタデータ) (2023-04-01T01:45:53Z) - USC: Uncompromising Spatial Constraints for Safety-Oriented 3D Object Detectors in Autonomous Driving [7.355977594790584]
自律運転における3次元物体検出器の安全性指向性能について考察する。
本稿では,単純だが重要な局所化要件を特徴付ける空間的制約 (USC) について述べる。
既存のモデルに対する安全性指向の微調整を可能にするために,定量的な測定値を共通損失関数に組み込む。
論文 参考訳(メタデータ) (2022-09-21T14:03:08Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。