論文の概要: Adversarial Driving Behavior Generation Incorporating Human Risk
Cognition for Autonomous Vehicle Evaluation
- arxiv url: http://arxiv.org/abs/2310.00029v1
- Date: Fri, 29 Sep 2023 04:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 07:01:47.012255
- Title: Adversarial Driving Behavior Generation Incorporating Human Risk
Cognition for Autonomous Vehicle Evaluation
- Title(参考訳): 自律走行車評価のための人間のリスク認知を組み込んだ対人運転行動生成
- Authors: Zhen Liu, Hang Gao, Hao Ma, Shuo Cai, Yunfeng Hu, Ting Qu, Hong Chen,
Xun Gong
- Abstract要約: 本稿では,背景車両の対向運転行動を生成する新しい枠組みの開発に焦点をあてる。
相関行動は累積予測理論(CPT)を組み込んだ強化学習(RL)アプローチによって学習される
高忠実度ハードウェア・イン・ザ・ループ(HiL)プラットフォーム上で,カットインシナリオの比較ケーススタディを行った。
- 参考スコア(独自算出の注目度): 23.476885023669524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicle (AV) evaluation has been the subject of increased interest
in recent years both in industry and in academia. This paper focuses on the
development of a novel framework for generating adversarial driving behavior of
background vehicle interfering against the AV to expose effective and rational
risky events. Specifically, the adversarial behavior is learned by a
reinforcement learning (RL) approach incorporated with the cumulative prospect
theory (CPT) which allows representation of human risk cognition. Then, the
extended version of deep deterministic policy gradient (DDPG) technique is
proposed for training the adversarial policy while ensuring training stability
as the CPT action-value function is leveraged. A comparative case study
regarding the cut-in scenario is conducted on a high fidelity
Hardware-in-the-Loop (HiL) platform and the results demonstrate the adversarial
effectiveness to infer the weakness of the tested AV.
- Abstract(参考訳): 自律走行車(AV)の評価は近年,産業とアカデミックの両方において関心が高まっている。
本稿では,AVに対して干渉する背景車両の対向運転行動を生成し,効果的かつ合理的な危険事象を明らかにする新しい枠組みの開発に焦点をあてる。
具体的には、人間のリスク認知の表現を可能にする累積予測理論(CPT)を組み込んだ強化学習(RL)アプローチによって、敵対行動が学習される。
次に, CPT アクション値関数の活用によるトレーニング安定性を確保しつつ, 対角政策の訓練にDDPG(Deep Deterministic Policy gradient)法の拡張版を提案する。
高忠実度ハードウェア・イン・ザ・ループ(hil)プラットフォーム上で,カットインシナリオに関する比較ケーススタディを行い,テストavの弱さを推定する逆効果を示す。
関連論文リスト
- VCAT: Vulnerability-aware and Curiosity-driven Adversarial Training for Enhancing Autonomous Vehicle Robustness [18.27802330689405]
Vulnerability-aware and Curiosity-driven Adversarial Training (VCAT)は、悪意のある攻撃に対して自動運転車(AV)を訓練するフレームワークである。
VCATは、サロゲートネットワークを使用して、AV被害者の価値関数に適合し、被害者の固有の脆弱性に関する密集した情報を提供する。
被害者防衛訓練フェーズでは、AVは、訓練済みの攻撃者が被害者の周りに配置され、攻撃行動を生成する重要なシナリオで訓練される。
論文 参考訳(メタデータ) (2024-09-19T14:53:02Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Autonomous and Human-Driven Vehicles Interacting in a Roundabout: A
Quantitative and Qualitative Evaluation [34.67306374722473]
我々は,イタリア・ミラノのラウンドアバウンドにおいて,交通渋滞を最小限に抑え,汚染を最小限に抑える政策を学ぶ。
最先端のコックピットを用いて学習方針を定性的に評価し,実世界に近い環境下での性能を評価する。
以上の結果から,ヒト駆動車両はAVの動態を最適化することの利点が示唆された。
論文 参考訳(メタデータ) (2023-09-15T09:02:16Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。