論文の概要: Assessing Safety-Critical Systems from Operational Testing: A Study on
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2008.09510v1
- Date: Wed, 19 Aug 2020 19:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:16:32.673732
- Title: Assessing Safety-Critical Systems from Operational Testing: A Study on
Autonomous Vehicles
- Title(参考訳): 運転試験から安全臨界システムを評価する:自律走行車に関する研究
- Authors: Xingyu Zhao, Kizito Salako, Lorenzo Strigini, Valentin Robu, David
Flynn
- Abstract要約: 安全クリティカルシステム(SCS)の信頼性と安全性の実証は依然として難しい問題である。
我々は、信頼性を示す問題を再考するために、現在の例として自律走行車(AV)を使用します。
- 参考スコア(独自算出の注目度): 3.629865579485447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context: Demonstrating high reliability and safety for safety-critical
systems (SCSs) remains a hard problem. Diverse evidence needs to be combined in
a rigorous way: in particular, results of operational testing with other
evidence from design and verification. Growing use of machine learning in SCSs,
by precluding most established methods for gaining assurance, makes operational
testing even more important for supporting safety and reliability claims.
Objective: We use Autonomous Vehicles (AVs) as a current example to revisit the
problem of demonstrating high reliability. AVs are making their debut on public
roads: methods for assessing whether an AV is safe enough are urgently needed.
We demonstrate how to answer 5 questions that would arise in assessing an AV
type, starting with those proposed by a highly-cited study. Method: We apply
new theorems extending Conservative Bayesian Inference (CBI), which exploit the
rigour of Bayesian methods while reducing the risk of involuntary misuse
associated with now-common applications of Bayesian inference; we define
additional conditions needed for applying these methods to AVs. Results: Prior
knowledge can bring substantial advantages if the AV design allows strong
expectations of safety before road testing. We also show how naive attempts at
conservative assessment may lead to over-optimism instead; why extrapolating
the trend of disengagements is not suitable for safety claims; use of knowledge
that an AV has moved to a less stressful environment. Conclusion: While some
reliability targets will remain too high to be practically verifiable, CBI
removes a major source of doubt: it allows use of prior knowledge without
inducing dangerously optimistic biases. For certain ranges of required
reliability and prior beliefs, CBI thus supports feasible, sound arguments.
Useful conservative claims can be derived from limited prior knowledge.
- Abstract(参考訳): コンテキスト: 安全クリティカルシステム(SCS)の信頼性と安全性を示すことは、依然として難しい問題です。
特に、運用テストの結果と、設計と検証による他の証拠とは、厳密な方法で、さまざまな証拠を組み合わせる必要がある。
SCSにおける機械学習の利用の増加は、保証を得るために確立された最も確立された手法を先取りすることで、安全性と信頼性の主張をサポートするために運用テストがさらに重要になる。
目的: 自動運転車(avs)を現在の例に用いて、高い信頼性を示す問題を再検討しています。
avが公道でデビューする: avが十分に安全かどうかを評価する方法は緊急に必要である。
AVタイプを評価する際に生じる5つの質問にどのように答えるかを示す。
方法: ベイジアン推論(CBI)を拡張した新しい定理を適用し, ベイジアン手法の厳密さを生かし, ベイジアン推論に付随する不随意誤用のリスクを低減し, それらの手法をAVに適用するために必要な追加条件を定義する。
結果: AV設計が道路試験前の安全性を強く期待するならば,事前知識は大きなメリットをもたらす可能性がある。
また, 保守的評価の試みが過度な最適化につながること, 離脱傾向の補間が安全クレームに適さないこと, AVがストレスの少ない環境に移行した知識の利用, などを示す。
結論: 信頼性の目標のいくつかは、実際に検証するには高すぎるが、CBIは大きな疑問の源を排除している。
必要な信頼性と事前の信念の特定の範囲において、cbiは実現可能な健全な議論をサポートする。
有用な保守的主張は限定された事前知識から導かれる。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - FREA: Feasibility-Guided Generation of Safety-Critical Scenarios with Reasonable Adversariality [13.240598841087841]
本稿では,AVのLF(Largest Feasible Region)をガイダンスとして組み込んだ新しい安全クリティカルシナリオ生成手法FREAを紹介する。
実験では、FREAが安全クリティカルなシナリオを効果的に生成し、ほぼミスに近い事象を引き起こすことが示されている。
論文 参考訳(メタデータ) (2024-06-05T06:26:15Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Planning Reliability Assurance Tests for Autonomous Vehicles [5.590179847470922]
AI技術の1つの重要な応用は、自動運転車(AV)の開発である。
保証テストの計画を立てるには、どのくらいのAVをテストする必要があるか、テストに合格する基準を定める必要がある。
本稿では,連続イベントデータに基づくAV信頼性保証試験の統計的手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T20:48:20Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Provable Safe Reinforcement Learning with Binary Feedback [62.257383728544006]
状態, アクションペアの安全性に対するバイナリフィードバックを提供するオフラインオラクルへのアクセスを与えられた場合, 証明可能な安全なRLの問題を考える。
我々は,その設定に対してブラックボックスPAC RLアルゴリズムに与えられた任意のMDP設定に適用可能な,新しいメタアルゴリズムSABREを提案する。
論文 参考訳(メタデータ) (2022-10-26T05:37:51Z) - Demonstrating Software Reliability using Possibly Correlated Tests:
Insights from a Conservative Bayesian Approach [2.152298082788376]
我々は、実行が独立したことを「疑う」という非公式な概念を定式化する。
我々は、独立仮定が、評価において保守主義を損なうことができる範囲を明らかにする技術を開発する。
論文 参考訳(メタデータ) (2022-08-16T20:27:47Z) - Bootstrapping confidence in future safety based on past safe operation [0.0]
本研究は,運転初期における事故発生確率の低い信頼度へのアプローチを示す。
これにより、不運な運転が安全への自信を確証することを願って、限られた基準でシステムを操作するという一般的なアプローチが定式化される。
論文 参考訳(メタデータ) (2021-10-20T18:36:23Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。