論文の概要: Bootstrapping confidence in future safety based on past safe operation
- arxiv url: http://arxiv.org/abs/2110.10718v1
- Date: Wed, 20 Oct 2021 18:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:30:55.032518
- Title: Bootstrapping confidence in future safety based on past safe operation
- Title(参考訳): 過去安全操作に基づく将来の安全へのブートストラップ信頼
- Authors: Peter Bishop, Andrey Povyakalo and Lorenzo Strigini
- Abstract要約: 本研究は,運転初期における事故発生確率の低い信頼度へのアプローチを示す。
これにより、不運な運転が安全への自信を確証することを願って、限られた基準でシステムを操作するという一般的なアプローチが定式化される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With autonomous vehicles (AVs), a major concern is the inability to give
meaningful quantitative assurance of safety, to the extent required by society
- e.g. that an AV must be at least as safe as a good human driver - before that
AV is in extensive use. We demonstrate an approach to achieving more moderate,
but useful, confidence, e.g., confidence of low enough probability of causing
accidents in the early phases of operation. This formalises mathematically the
common approach of operating a system on a limited basis in the hope that
mishap-free operation will confirm one's confidence in its safety and allow
progressively more extensive operation: a process of "bootstrapping" of
confidence. Translating that intuitive approach into theorems shows: (1) that
it is substantially sound in the right circumstances, and could be a good
method for deciding about the early deployment phase for an AV; (2) how much
confidence can be rightly derived from such a "cautious deployment" approach,
so that we can avoid over-optimism; (3) under which conditions our sound
formulas for future confidence are applicable; (4) thus, which analyses of the
concrete situations, and/or constraints on practice, are needed in order to
enjoy the advantages of provably correct confidence in adequate future safety.
- Abstract(参考訳): 自律走行車(AV)では、社会が必要とする範囲(例えば、AVが優れた人間ドライバーと同じくらい安全でなければならない)において、安全の有意義な量的保証を与えることができないことが大きな関心事である。
より穏健な、しかし有用で信頼性の高い、例えば、運用初期の段階で事故を起こす可能性の低い信頼性を達成するためのアプローチを実証する。
これは、不運な操作が安全に対する自信を確証し、より広範な操作を可能にすることを願って、限られたベースでシステムを操作するという、数学的に一般的なアプローチを定式化する。
Translating that intuitive approach into theorems shows: (1) that it is substantially sound in the right circumstances, and could be a good method for deciding about the early deployment phase for an AV; (2) how much confidence can be rightly derived from such a "cautious deployment" approach, so that we can avoid over-optimism; (3) under which conditions our sound formulas for future confidence are applicable; (4) thus, which analyses of the concrete situations, and/or constraints on practice, are needed in order to enjoy the advantages of provably correct confidence in adequate future safety.
関連論文リスト
- On the Robustness of Adversarial Training Against Uncertainty Attacks [9.180552487186485]
学習問題において、手元のタスクに固有のノイズは、ある程度の不確実性なく推論する可能性を妨げている。
本研究は、敵の例、すなわち、誤分類を引き起こす注意深く摂動されたサンプルに対する防御が、より安全で信頼性の高い不確実性推定を保証していることを実証的および理論的に明らかにする。
我々は,CIFAR-10およびImageNetデータセット上で,公開ベンチマークのRobustBenchから,複数の逆ロバストモデルを評価する。
論文 参考訳(メタデータ) (2024-10-29T11:12:44Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - FREA: Feasibility-Guided Generation of Safety-Critical Scenarios with Reasonable Adversariality [13.240598841087841]
本稿では,AVのLF(Largest Feasible Region)をガイダンスとして組み込んだ新しい安全クリティカルシナリオ生成手法FREAを紹介する。
実験では、FREAが安全クリティカルなシナリオを効果的に生成し、ほぼミスに近い事象を引き起こすことが示されている。
論文 参考訳(メタデータ) (2024-06-05T06:26:15Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk [2.2386635730984117]
完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
論文 参考訳(メタデータ) (2023-06-02T21:05:39Z) - Did You Mean...? Confidence-based Trade-offs in Semantic Parsing [52.28988386710333]
タスク指向の構文解析において、キャリブレーションモデルが共通のトレードオフのバランスを取るのにどのように役立つかを示す。
次に、信頼性スコアがユーザビリティと安全性のトレードオフを最適化する上で、どのように役立つかを検証します。
論文 参考訳(メタデータ) (2023-03-29T17:07:26Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - Towards Safe Policy Improvement for Non-Stationary MDPs [48.9966576179679]
多くの実世界の利害問題は非定常性を示し、利害関係が高ければ、偽の定常性仮定に関連するコストは受け入れがたい。
我々は、スムーズに変化する非定常的な意思決定問題に対して、高い信頼性で安全性を確保するための第一歩を踏み出します。
提案手法は,時系列解析を用いたモデルフリー強化学習の合成により,セルドンアルゴリズムと呼ばれる安全なアルゴリズムを拡張した。
論文 参考訳(メタデータ) (2020-10-23T20:13:51Z) - Positive Trust Balance for Self-Driving Car Deployment [3.106768467227812]
自動運転車の展開準備が整った時期に関する決定は、遅れる指標データによって下される可能性が高い。
ポジティブトラストバランスアプローチは、責任あるデプロイメント決定に役立ちます。
論文 参考訳(メタデータ) (2020-09-12T14:23:47Z) - Assessing Safety-Critical Systems from Operational Testing: A Study on
Autonomous Vehicles [3.629865579485447]
安全クリティカルシステム(SCS)の信頼性と安全性の実証は依然として難しい問題である。
我々は、信頼性を示す問題を再考するために、現在の例として自律走行車(AV)を使用します。
論文 参考訳(メタデータ) (2020-08-19T19:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。