論文の概要: Refining Perception Contracts: Case Studies in Vision-based Safe
Auto-landing
- arxiv url: http://arxiv.org/abs/2311.08652v1
- Date: Wed, 15 Nov 2023 02:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 17:24:51.291755
- Title: Refining Perception Contracts: Case Studies in Vision-based Safe
Auto-landing
- Title(参考訳): 知覚契約の精査--視覚に基づく安全なオートランディングのケーススタディ
- Authors: Yangge Li, Benjamin C Yang, Yixuan Jia, Daniel Zhuang, Sayan Mitra
- Abstract要約: 知覚契約は、認識に機械学習を使用する制御システムの安全性を評価する方法を提供する。
本稿では,多段階,異種,ML対応の2種類の飛行制御系について述べる。
- 参考スコア(独自算出の注目度): 2.3415799537084725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception contracts provide a method for evaluating safety of control
systems that use machine learning for perception. A perception contract is a
specification for testing the ML components, and it gives a method for proving
end-to-end system-level safety requirements. The feasibility of contract-based
testing and assurance was established earlier in the context of straight lane
keeping: a 3-dimensional system with relatively simple dynamics. This paper
presents the analysis of two 6 and 12-dimensional flight control systems that
use multi-stage, heterogeneous, ML-enabled perception. The paper advances
methodology by introducing an algorithm for constructing data and requirement
guided refinement of perception contracts (DaRePC). The resulting analysis
provides testable contracts which establish the state and environment
conditions under which an aircraft can safety touchdown on the runway and a
drone can safely pass through a sequence of gates. It can also discover
conditions (e.g., low-horizon sun) that can possibly violate the safety of the
vision-based control system.
- Abstract(参考訳): 知覚契約は、認識に機械学習を使用する制御システムの安全性を評価する方法を提供する。
知覚契約はMLコンポーネントをテストするための仕様であり、エンドツーエンドのシステムレベルの安全性要件を証明する方法を提供する。
契約ベースのテストと保証は、比較的単純な力学を持つ3次元システムであるストレートレーン維持の文脈において、早くから確立された。
本稿では,多段,異種,ml対応の2種類の飛行制御システムの解析について述べる。
本稿では,データ構築のためのアルゴリズムを導入し,DaRePC(Diceptor Contract)の洗練を要請する手法を提案する。
結果として得られた分析は、航空機が滑走路で安全にタッチダウンでき、ドローンが安全に一連のゲートを通過できる状態と環境の条件を確立するテスト可能な契約を提供する。
また、視覚ベースの制御システムの安全性に反する可能性のある条件(例えば、低水平太陽)を発見できる。
関連論文リスト
- DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Detecting and Mitigating System-Level Anomalies of Vision-Based
Controllers [7.974134340935598]
ビジョンベースのコントローラは、新規またはアウト・オブ・ディストリビューションの入力に直面したとき、誤った予測を行うことができる。
本研究では,そのような閉ループ,システムレベルの障害を検知・緩和する実行時異常モニタを提案する。
本提案手法は, 視覚に基づくタクシー制御システムを用いた自律型航空機タクシーシステムにおいて, 提案手法の有効性を検証したものである。
論文 参考訳(メタデータ) (2023-09-23T20:33:38Z) - Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk [2.2386635730984117]
完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
論文 参考訳(メタデータ) (2023-06-02T21:05:39Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Assuring Safety of Vision-Based Swarm Formation Control [0.0]
本稿では,視覚に基づく構成制御の安全性保証手法を提案する。
本稿では,標準量子化コンセンサスアルゴリズムの収束解析を構築された量子化器に適用する方法を示す。
論文 参考訳(メタデータ) (2022-10-03T14:47:32Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Safe Perception -- A Hierarchical Monitor Approach [0.0]
本稿では,AIに基づく認識システムのための新しい階層的モニタリング手法を提案する。
検出ミスを確実に検出でき、同時に誤報率も極めて低い。
論文 参考訳(メタデータ) (2022-08-01T13:09:24Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z) - Runtime Safety Assurance Using Reinforcement Learning [37.61747231296097]
本稿では,安全でない状況を高精度に識別できるメタコントローラを設計することを目的とする。
我々は,RTSAの設計をマルコフ決定プロセス(MDP)と組み合わせ,強化学習(RL)を用いて解決する。
論文 参考訳(メタデータ) (2020-10-20T20:54:46Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。