論文の概要: Positive Trust Balance for Self-Driving Car Deployment
- arxiv url: http://arxiv.org/abs/2009.05801v1
- Date: Sat, 12 Sep 2020 14:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 10:41:31.239728
- Title: Positive Trust Balance for Self-Driving Car Deployment
- Title(参考訳): 自動運転車展開における正の信頼バランス
- Authors: Philip Koopman, Michael Wagner
- Abstract要約: 自動運転車の展開準備が整った時期に関する決定は、遅れる指標データによって下される可能性が高い。
ポジティブトラストバランスアプローチは、責任あるデプロイメント決定に役立ちます。
- 参考スコア(独自算出の注目度): 3.106768467227812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The crucial decision about when self-driving cars are ready to deploy is
likely to be made with insufficient lagging metric data to provide high
confidence in an acceptable safety outcome. A Positive Trust Balance approach
can help with making a responsible deployment decision despite this
uncertainty. With this approach, a reasonable initial expectation of safety is
based on a combination of a practicable amount of testing, engineering rigor,
safety culture, and a strong commitment to use post-deployment operational
feedback to further reduce uncertainty. This can enable faster deployment than
would be required by more traditional safety approaches by reducing the
confidence necessary at time of deployment in exchange for a more stringent
requirement for Safety Performance Indicator (SPI) field feedback in the
context of a strong safety culture.
- Abstract(参考訳): 自動運転車の配備準備がいつ可能かという重要な決定は、許容可能な安全性の成果に高い信頼性を提供するために、十分な遅延指標データでなされる可能性が高い。
ポジティブな信頼バランスアプローチは、この不確実性にもかかわらず、責任あるデプロイメント決定を行うのに役立つ。
このアプローチでは、適切な初期安全性の期待は、実践可能な量のテスト、エンジニアリング厳密さ、安全文化、そして不確実性をさらに軽減するためにデプロイ後の運用フィードバックを使用するという強いコミットメントの組み合わせに基づいている。
これにより、強力な安全文化のコンテキストにおいて、より厳格なSPI(Safety Performance Indicator)フィールドフィードバックの要求と引き換えに、デプロイメント時に必要となる信頼性を低減し、従来の安全アプローチよりも高速なデプロイメントが可能になる。
関連論文リスト
- Realizable Continuous-Space Shields for Safe Reinforcement Learning [13.728961635717134]
深層強化学習(Dep Reinforcement Learning, DRL)は、時には破滅的な障害に対して、追加の保護なしに脆弱なままである。
効果的な解決策の1つは、エージェントのアクションを検証・調整するシールドを使用して、与えられた一連の安全仕様に準拠することである。
本研究では,連続状態および行動空間における安全要件の実現可能性を自動的に保証する最初の遮蔽手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T21:08:11Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - CONClave -- Secure and Robust Cooperative Perception for CAVs Using Authenticated Consensus and Trust Scoring [0.9912132935716113]
ConClaveは、自動運転車における協調的な認識のための包括的なセキュリティと信頼性を提供する。
ConClaveは、セキュリティ欠陥の防止、比較的小さな検知障害の検出、CAVにおける協調認識の堅牢性と正確性の向上において、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-04T16:42:40Z) - Safety through Permissibility: Shield Construction for Fast and Safe Reinforcement Learning [57.84059344739159]
シールドディング」は、強化学習(RL)の安全性を強制する一般的な手法である
安全と遮蔽構造に対処する新しい許容性に基づく枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T18:00:21Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Did You Mean...? Confidence-based Trade-offs in Semantic Parsing [52.28988386710333]
タスク指向の構文解析において、キャリブレーションモデルが共通のトレードオフのバランスを取るのにどのように役立つかを示す。
次に、信頼性スコアがユーザビリティと安全性のトレードオフを最適化する上で、どのように役立つかを検証します。
論文 参考訳(メタデータ) (2023-03-29T17:07:26Z) - Optimal Transport Perturbations for Safe Reinforcement Learning with Robustness Guarantees [14.107064796593225]
我々は、最適な輸送コストの不確実性セットを用いてロバストネスを組み込んだ安全な強化学習フレームワークを導入する。
安全性の制約のある継続的制御タスクの実験では,本手法はロバストな性能を示しながら,デプロイ時の安全性を大幅に改善する。
論文 参考訳(メタデータ) (2023-01-31T02:39:52Z) - Safe Reinforcement Learning via Confidence-Based Filters [78.39359694273575]
我々は,標準的な強化学習技術を用いて学習した名目政策に対して,国家安全の制約を認定するための制御理論的アプローチを開発する。
我々は、正式な安全保証を提供し、我々のアプローチの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2022-07-04T11:43:23Z) - Bootstrapping confidence in future safety based on past safe operation [0.0]
本研究は,運転初期における事故発生確率の低い信頼度へのアプローチを示す。
これにより、不運な運転が安全への自信を確証することを願って、限られた基準でシステムを操作するという一般的なアプローチが定式化される。
論文 参考訳(メタデータ) (2021-10-20T18:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。