論文の概要: When Uncertainty Leads to Unsafety: Empirical Insights into the Role of Uncertainty in Unmanned Aerial Vehicle Safety
- arxiv url: http://arxiv.org/abs/2501.08908v1
- Date: Wed, 15 Jan 2025 16:18:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:51.109632
- Title: When Uncertainty Leads to Unsafety: Empirical Insights into the Role of Uncertainty in Unmanned Aerial Vehicle Safety
- Title(参考訳): 不確実性が不安全に導くとき--無人航空機の安全における不確実性の役割に関する実証的考察
- Authors: Sajad Khatiri, Fatemeh Mohammadi Amin, Sebastiano Panichella, Paolo Tonella,
- Abstract要約: 本研究では,UAVの行動不確実性と飛行の危険度との関係について検討した。
オートエンコーダに基づく実行時不確実性検出であるSuperialistを実装した。
スーパーリアリストは、96%の精度と93%のリコールで不確実な振る舞いを検出することで高いパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 9.432686404777584
- License:
- Abstract: Despite the recent developments in obstacle avoidance and other safety features, autonomous Unmanned Aerial Vehicles (UAVs) continue to face safety challenges. No previous work investigated the relationship between the behavioral uncertainty of a UAV and the unsafety of its flight. By quantifying uncertainty, it is possible to develop a predictor for unsafety, which acts as a flight supervisor. We conducted a large-scale empirical investigation of safety violations using PX4-Autopilot, an open-source UAV software platform. Our dataset of over 5,000 simulated flights, created to challenge obstacle avoidance, allowed us to explore the relation between uncertain UAV decisions and safety violations: up to 89% of unsafe UAV states exhibit significant decision uncertainty, and up to 74% of uncertain decisions lead to unsafe states. Based on these findings, we implemented Superialist (Supervising Autonomous Aerial Vehicles), a runtime uncertainty detector based on autoencoders, the state-of-the-art technology for anomaly detection. Superialist achieved high performance in detecting uncertain behaviors with up to 96% precision and 93% recall. Despite the observed performance degradation when using the same approach for predicting unsafety (up to 74% precision and 87% recall), Superialist enabled early prediction of unsafe states up to 50 seconds in advance.
- Abstract(参考訳): 近年の障害物回避やその他の安全機能の発展にもかかわらず、無人航空機(UAV)は安全上の課題に直面し続けている。
以前の研究では、UAVの行動の不確実性と飛行の不安全との関係を調査した。
不確実性を定量化することにより、飛行スーパーバイザーとして機能する安全でない予測器を開発することができる。
我々は,オープンソースのUAVソフトウェアプラットフォームであるPX4-Autopilotを用いて,安全違反の大規模調査を行った。
5,000以上の模擬飛行のデータセットは、障害物回避に挑戦するために作成され、不確実なUAV決定と安全違反の関係を探索することができた。
これらの知見に基づいて,自動エンコーダに基づく実行時不確実性検出装置であるSupervising Autonomous Aerial Vehicles(Supervising Autonomous Aerial Vehicles)を,異常検出のための最先端技術として実装した。
スーパーリアリストは、96%の精度と93%のリコールで不確実な振る舞いを検出することで高いパフォーマンスを達成した。
安全でない状態の予測に同じアプローチ(最大74%の精度と87%のリコール)を使用する場合のパフォーマンス低下が観測されたにもかかわらず、Superialistは、事前に最大50秒までの安全でない状態の早期予測を可能にした。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Anomalous State Sequence Modeling to Enhance Safety in Reinforcement Learning [0.0]
本稿では,RLの安全性を高めるために,異常状態列を利用した安全強化学習(RL)手法を提案する。
自動運転車を含む複数の安全クリティカルな環境の実験において、我々のソリューションアプローチはより安全なポリシーをうまく学習する。
論文 参考訳(メタデータ) (2024-07-29T10:30:07Z) - Predicting Safety Misbehaviours in Autonomous Driving Systems using Uncertainty Quantification [8.213390074932132]
本稿では, 深層学習領域と異なる不確実性定量化手法を, 安全クリティカルな誤動作の予測試験のために評価する。
車両が実施する不確実性スコアは、高い不確実性スコアがサポートされていない実行条件を示すという直感に従って計算する。
本研究では,MC-DropoutとDeep Ensemblesの2つの不確実な定量化手法,すなわち,誤動作回避のための有効性と計算オーバーヘッドの評価を行った。
論文 参考訳(メタデータ) (2024-04-29T10:28:28Z) - ACAV: A Framework for Automatic Causality Analysis in Autonomous Vehicle
Accident Recordings [5.578446693797519]
近年の死者は、大規模な検査による安全性検証の重要性を強調している。
本稿では,AV事故記録の因果解析を行うための自動フレームワークACAVを提案する。
我々はアポロADSでACAVを評価し、110件の事故記録の93.64%で5種類の因果事象を特定できることを発見した。
論文 参考訳(メタデータ) (2024-01-13T12:41:05Z) - KnowSafe: Combined Knowledge and Data Driven Hazard Mitigation in
Artificial Pancreas Systems [3.146076597280736]
KnowSafeは、安全を害する悪意のある攻撃や、CPSコントローラを標的とした偶発的な障害による安全性の危険を予測し軽減する。
安全制約のドメイン固有の知識とコンテキスト固有の緩和行動と機械学習(ML)技術を統合する。
KnowSafeは、システム状態の軌跡や潜在的な危険を予測する上で、より高い精度を達成することで、最先端技術よりも優れています。
論文 参考訳(メタデータ) (2023-11-13T16:43:34Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。