論文の概要: Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards
- arxiv url: http://arxiv.org/abs/2206.00886v1
- Date: Thu, 2 Jun 2022 05:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:53:48.359854
- Title: Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards
- Title(参考訳): 安全を脅かす俳優の注意:積極的に安全の危険を緩和する
- Authors: Saurabh Jha and Shengkun Cui and Zbigniew Kalbarczyk and Ravishankar
K. Iyer
- Abstract要約: 本稿では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
提案手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
- 参考スコア(独自算出の注目度): 5.898210877584262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the successful demonstration of autonomous vehicles (AVs), such as
self-driving cars, ensuring AV safety remains a challenging task. Although some
actors influence an AV's driving decisions more than others, current approaches
pay equal attention to each actor on the road. An actor's influence on the AV's
decision can be characterized in terms of its ability to decrease the number of
safe navigational choices for the AV. In this work, we propose a safety threat
indicator (STI) using counterfactual reasoning to estimate the importance of
each actor on the road with respect to its influence on the AV's safety. We use
this indicator to (i) characterize the existing real-world datasets to identify
rare hazardous scenarios as well as the poor performance of existing
controllers in such scenarios; and (ii) design an RL based safety mitigation
controller to proactively mitigate the safety hazards those actors pose to the
AV. Our approach reduces the accident rate for the state-of-the-art AV agent(s)
in rare hazardous scenarios by more than 70%.
- Abstract(参考訳): 自動運転車のような自動運転車(AV)の実証が成功したにもかかわらず、AVの安全性を確保することは難しい課題である。
一部の俳優はavの運転決定に他よりも影響を与えているが、現在のアプローチは各俳優に同じ注意を払っている。
AVの決定に対するアクターの影響は、AVにとって安全な航法選択の回数を減らす能力によって特徴づけられる。
本研究では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
私たちはこの指標を使います
(i)既存の現実世界のデータセットを特徴付けて、希少な危険シナリオを特定することと、そのようなシナリオにおける既存のコントローラのパフォーマンスの劣悪さを特定すること。
(II)アクターがAVに課す安全リスクを積極的に軽減するRLベースの安全対策コントローラを設計する。
本手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
関連論文リスト
- CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - Automated and Complete Generation of Traffic Scenarios at Road Junctions Using a Multi-level Danger Definition [2.5608506499175094]
本稿では,任意の道路交差点において,完全な(潜在的に危険な)抽象シナリオを導出する手法を提案する。
これらの抽象的なシナリオから、アクターがシミュレーションベースのテストをガイドするために従わなければならない正確なパスを導き出す。
その結果, AV-under-test はシミュレーションにおける不安全行動の割合の増加に関与していることがわかった。
論文 参考訳(メタデータ) (2024-10-09T17:23:51Z) - Nothing in Excess: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
重大言語モデル(LLM)が悪意のある命令から脅威を守るためには、安全性の調整が不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles [3.3605894204326994]
AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
論文 参考訳(メタデータ) (2022-08-03T13:24:25Z) - ML-driven Malware that Targets AV Safety [5.675697880379048]
我々は、攻撃モデル、スマートマルウェアの形で攻撃を展開する方法、およびプロダクショングレードの自動運転ソフトウェアに対するその影響を実験的に評価する。
攻撃開始までの時間間隔を決定することは、高い成功率で安全上の危険を引き起こすために極めて重要である。
例えば、スマートマルウェアは、ランダムな攻撃よりも33倍の緊急ブレーキを引き起こし、運転シミュレーションの52.6%で事故が発生した。
論文 参考訳(メタデータ) (2020-04-24T22:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。