論文の概要: Multi-Agent Vulnerability Discovery for Autonomous Driving with Hazard
Arbitration Reward
- arxiv url: http://arxiv.org/abs/2112.06185v1
- Date: Sun, 12 Dec 2021 08:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:21:06.801712
- Title: Multi-Agent Vulnerability Discovery for Autonomous Driving with Hazard
Arbitration Reward
- Title(参考訳): 危険追従型自律走行のためのマルチエージェント脆弱性発見
- Authors: Weilin Liu, Ye Mu, Chao Yu, Xuefei Ning, Zhong Cao, Yi Wu, Shuang
Liang, Huazhong Yang, Yu Wang
- Abstract要約: 本研究では,マルチエージェント強化学習に基づくAv-Responsible Scenarios (STARS) の安全性テストフレームワークを提案する。
STARSは、他の交通機関の参加者にAv-Responsible Scenariosの制作を指導し、テスト中の運転ポリシーを誤解させる。
- 参考スコア(独自算出の注目度): 21.627246586543542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering hazardous scenarios is crucial in testing and further improving
driving policies. However, conducting efficient driving policy testing faces
two key challenges. On the one hand, the probability of naturally encountering
hazardous scenarios is low when testing a well-trained autonomous driving
strategy. Thus, discovering these scenarios by purely real-world road testing
is extremely costly. On the other hand, a proper determination of accident
responsibility is necessary for this task. Collecting scenarios with
wrong-attributed responsibilities will lead to an overly conservative
autonomous driving strategy. To be more specific, we aim to discover hazardous
scenarios that are autonomous-vehicle responsible (AV-responsible), i.e., the
vulnerabilities of the under-test driving policy.
To this end, this work proposes a Safety Test framework by finding
Av-Responsible Scenarios (STARS) based on multi-agent reinforcement learning.
STARS guides other traffic participants to produce Av-Responsible Scenarios and
make the under-test driving policy misbehave via introducing Hazard Arbitration
Reward (HAR). HAR enables our framework to discover diverse, complex, and
AV-responsible hazardous scenarios. Experimental results against four different
driving policies in three environments demonstrate that STARS can effectively
discover AV-responsible hazardous scenarios. These scenarios indeed correspond
to the vulnerabilities of the under-test driving policies, thus are meaningful
for their further improvements.
- Abstract(参考訳): 危険なシナリオの発見は、テストと運転方針の改善に不可欠である。
しかし、効率的な運転ポリシーテストの実行には2つの課題がある。
一方、十分に訓練された自動運転戦略をテストする場合、自然に危険シナリオに遭遇する確率は低い。
したがって、純粋に現実世界の道路テストでこれらのシナリオを発見するのは、非常にコストがかかる。
一方で、このタスクには、事故責任の適切な決定が必要となる。
誤った責任を負ったシナリオの収集は、過度に保守的な自動運転戦略につながる。
より具体的には、自動運転車の責任を負う危険シナリオ、すなわちテスト下運転ポリシーの脆弱性を発見することを目的としている。
そこで本研究では,マルチエージェント強化学習に基づくAv-Responsible Scenarios(STARS)の安全性テストフレームワークを提案する。
STARSは、他の交通機関の参加者にAv-Responsible Scenariosの生産を誘導し、Hazard Arbitration Reward (HAR)を導入して、テスト中の運転ポリシーを誤動作させる。
HARにより、当社のフレームワークは、多様な、複雑で、AV対応の有害シナリオを発見できます。
3つの環境における4つの異なる運転方針に対する実験結果から、STARSはAV対応の危険シナリオを効果的に発見できることが示された。
これらのシナリオは実際にテスト済みの駆動ポリシーの脆弱性に対応しているため、さらなる改善には意味があります。
関連論文リスト
- CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - Automated and Complete Generation of Traffic Scenarios at Road Junctions Using a Multi-level Danger Definition [2.5608506499175094]
本稿では,任意の道路交差点において,完全な(潜在的に危険な)抽象シナリオを導出する手法を提案する。
これらの抽象的なシナリオから、アクターがシミュレーションベースのテストをガイドするために従わなければならない正確なパスを導き出す。
その結果, AV-under-test はシミュレーションにおける不安全行動の割合の増加に関与していることがわかった。
論文 参考訳(メタデータ) (2024-10-09T17:23:51Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - PAFOT: A Position-Based Approach for Finding Optimal Tests of Autonomous Vehicles [4.243926243206826]
本稿では位置に基づくアプローチテストフレームワークであるPAFOTを提案する。
PAFOTは、自動走行システムの安全違反を明らかにするために、敵の運転シナリオを生成する。
PAFOTはADSをクラッシュさせる安全クリティカルなシナリオを効果的に生成し、短いシミュレーション時間で衝突を見つけることができることを示す実験である。
論文 参考訳(メタデータ) (2024-05-06T10:04:40Z) - ReMAV: Reward Modeling of Autonomous Vehicles for Finding Likely Failure
Events [1.84926694477846]
本稿では、まず、オフライン軌道を用いて、既存の自動運転車の挙動を分析するブラックボックステストフレームワークを提案する。
実験の結果,車両衝突,道路物体衝突,歩行者衝突,オフロードステアリング事故の発生率は35,23,48,50%増加した。
論文 参考訳(メタデータ) (2023-08-28T13:09:00Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Pedestrian Emergence Estimation and Occlusion-Aware Risk Assessment for
Urban Autonomous Driving [0.0]
都市部における自律走行における歩行者の出現予測と排他的リスク評価システムを提案する。
まず,視覚車や歩行者などの状況情報を用いて,閉塞地域における歩行者の出現確率を推定する。
提案した制御器は安全性と快適性の観点から基準線よりも優れていた。
論文 参考訳(メタデータ) (2021-07-06T00:07:09Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。