論文の概要: Evaluation of Runtime Monitoring for UAV Emergency Landing
- arxiv url: http://arxiv.org/abs/2202.03059v1
- Date: Mon, 7 Feb 2022 10:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 14:32:07.693955
- Title: Evaluation of Runtime Monitoring for UAV Emergency Landing
- Title(参考訳): UAV緊急着陸時の監視方法の評価
- Authors: Joris Guerin, Kevin Delmas, J\'er\'emie Guiochet
- Abstract要約: 緊急着陸(EL)は、オンボードセンサーを用いて安全な着陸場所を見つけることによって、地上のリスクを低減することを目的としている。
提案するELパイプラインには、実行中の学習を監視するメカニズムが含まれている。
新しい評価手法を導入し,3つの機械学習モニタリング機構の実用的安全性評価に応用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To certify UAV operations in populated areas, risk mitigation strategies --
such as Emergency Landing (EL) -- must be in place to account for potential
failures. EL aims at reducing ground risk by finding safe landing areas using
on-board sensors. The first contribution of this paper is to present a new EL
approach, in line with safety requirements introduced in recent research. In
particular, the proposed EL pipeline includes mechanisms to monitor learning
based components during execution. This way, another contribution is to study
the behavior of Machine Learning Runtime Monitoring (MLRM) approaches within
the context of a real-world critical system. A new evaluation methodology is
introduced, and applied to assess the practical safety benefits of three MLRM
mechanisms. The proposed approach is compared to a default mitigation strategy
(open a parachute when a failure is detected), and appears to be much safer.
- Abstract(参考訳): 人口の多い地域でのUAVの運用を認証するには、緊急着陸(EL)のようなリスク軽減戦略が、潜在的な失敗を考慮に入れなければならない。
elは、オンボードセンサーを使って安全な着陸地点を見つけることで、地上のリスクを減らすことを目指している。
本論文の最初の貢献は,最近の研究で導入された安全要件に合わせて,新しいelアプローチを提案することである。
特に、提案されたELパイプラインには、実行中に学習ベースのコンポーネントを監視するメカニズムが含まれている。
この方法では、機械学習ランタイムモニタリング(MLRM)アプローチの振る舞いを、現実世界のクリティカルシステムのコンテキスト内で研究することにも貢献する。
新しい評価手法を導入し、3つのMLRM機構の実用的安全性の利点を評価する。
提案されたアプローチは、デフォルトの緩和戦略(障害が検出された場合にパラシュートを開く)と比較され、より安全であるように見える。
関連論文リスト
- Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - KnowSafe: Combined Knowledge and Data Driven Hazard Mitigation in
Artificial Pancreas Systems [3.146076597280736]
KnowSafeは、安全を害する悪意のある攻撃や、CPSコントローラを標的とした偶発的な障害による安全性の危険を予測し軽減する。
安全制約のドメイン固有の知識とコンテキスト固有の緩和行動と機械学習(ML)技術を統合する。
KnowSafeは、システム状態の軌跡や潜在的な危険を予測する上で、より高い精度を達成することで、最先端技術よりも優れています。
論文 参考訳(メタデータ) (2023-11-13T16:43:34Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Co-Design of Out-of-Distribution Detectors for Autonomous Emergency
Braking Systems [4.406331747636832]
学習可能なコンポーネント(LEC)は、トレーニングディストリビューション外のサンプルを提示すると、誤った判断をする。
オフ・オブ・ディストリビューション(OOD)検出器はそのようなサンプルを検出するために提案されており、それによって安全モニターとして機能する。
我々は,このリスクモデルを用いた共同設計手法を定式化し,OOD検出器の設計パラメータとベースラインシステムより低いリスクを減少させるLECを求める。
論文 参考訳(メタデータ) (2023-07-25T11:38:40Z) - Probabilistic Counterexample Guidance for Safer Reinforcement Learning
(Extended Version) [1.279257604152629]
セーフサーベイは、安全クリティカルなシナリオにおける強化学習(RL)の限界に対処することを目的としている。
外部知識を取り入れたり、センサデータを使って安全でない状態の探索を制限する方法はいくつか存在する。
本稿では,安全要件の反例によるトレーニングを指導することで,安全な探査の課題をターゲットにする。
論文 参考訳(メタデータ) (2023-07-10T22:28:33Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Certifying Emergency Landing for Safe Urban UAV [0.0]
無人航空機(UAV)は、都市環境における多くの用途に使用される可能性がある。
主な安全上の問題の一つは、ナビゲーション能力の喪失を引き起こす失敗の可能性です。
2019年に発表されたSORAのような現在の標準は、この種の危険な状況に対処するための適用可能な緩和技術を考慮していません。
論文 参考訳(メタデータ) (2021-04-30T11:47:46Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - Provably Safe PAC-MDP Exploration Using Analogies [87.41775218021044]
安全クリティカルドメインに強化学習を適用する上での課題は、探索と安全性のバランスをとる方法を理解することだ。
我々は,未知のダイナミックスを持つMDPにおいて,確実に安全な探索を行うアルゴリズムであるAnalogous Safe-State Exploration (ASE)を提案する。
提案手法は, PAC-MDP 感覚の準最適政策を安全に学習するために, 状態-作用対間の類似性を利用する。
論文 参考訳(メタデータ) (2020-07-07T15:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。