論文の概要: Adaptive Testing Environment Generation for Connected and Automated
Vehicles with Dense Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2402.19275v1
- Date: Thu, 29 Feb 2024 15:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:14:31.459027
- Title: Adaptive Testing Environment Generation for Connected and Automated
Vehicles with Dense Reinforcement Learning
- Title(参考訳): 高密度強化学習による車両連系・自動走行の適応的テスト環境生成
- Authors: Jingxuan Yang, Ruoxuan Bai, Haoyuan Ji, Yi Zhang, Jianming Hu, Shuo
Feng
- Abstract要約: 複数のサロゲートモデルを組み込んだアダプティブテスト環境を構築する。
そこで本研究では,高効率な高密度強化学習手法を提案し,新しい適応政策を考案する。
- 参考スコア(独自算出の注目度): 7.6589102528398065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The assessment of safety performance plays a pivotal role in the development
and deployment of connected and automated vehicles (CAVs). A common approach
involves designing testing scenarios based on prior knowledge of CAVs (e.g.,
surrogate models), conducting tests in these scenarios, and subsequently
evaluating CAVs' safety performances. However, substantial differences between
CAVs and the prior knowledge can significantly diminish the evaluation
efficiency. In response to this issue, existing studies predominantly
concentrate on the adaptive design of testing scenarios during the CAV testing
process. Yet, these methods have limitations in their applicability to
high-dimensional scenarios. To overcome this challenge, we develop an adaptive
testing environment that bolsters evaluation robustness by incorporating
multiple surrogate models and optimizing the combination coefficients of these
surrogate models to enhance evaluation efficiency. We formulate the
optimization problem as a regression task utilizing quadratic programming. To
efficiently obtain the regression target via reinforcement learning, we propose
the dense reinforcement learning method and devise a new adaptive policy with
high sample efficiency. Essentially, our approach centers on learning the
values of critical scenes displaying substantial surrogate-to-real gaps. The
effectiveness of our method is validated in high-dimensional overtaking
scenarios, demonstrating that our approach achieves notable evaluation
efficiency.
- Abstract(参考訳): 安全性能の評価は、コネクテッドおよび自動車両(CAV)の開発と展開において重要な役割を果たしている。
一般的なアプローチは、CAVの事前知識(例えば、サロゲートモデル)に基づいてテストシナリオを設計し、これらのシナリオでテストを実行し、次にCAVの安全性能を評価することである。
しかし,CAVと事前知識の相違は評価効率を著しく低下させる可能性がある。
この問題への対応として、既存の研究は主にcavテストプロセス中のテストシナリオの適応設計に集中している。
しかし,これらの手法は高次元シナリオに適用性に限界がある。
この課題を克服するために,複数のサロゲートモデルを組み込んだアダプティブテスト環境を開発し,これらのサロゲートモデルの組合せ係数を最適化し,評価効率を向上させる。
二次計画を用いた回帰タスクとして最適化問題を定式化する。
強化学習による回帰目標を効率的に獲得するために, 高密度強化学習法を提案し, サンプル効率の高い新しい適応方針を考案する。
本質的に、私たちのアプローチは、実質的なサロゲートから現実へのギャップを示す重要なシーンの価値を学ぶことに集中します。
提案手法の有効性を高次元オーバーテイクシナリオで検証し,本手法が顕著な評価効率を実現することを示す。
関連論文リスト
- Simulative Performance Analysis of an AD Function with Road Network
Variation [0.0]
そこで本研究では,シナリオの集合を多変量で自動テストする手法を提案する。
これらの変化は、ADF周辺の交通参加者には適用されないが、道路トポロジに関するパラメータがADFの性能に影響を及ぼすことを示すために、道路ネットワークに適用される。
論文 参考訳(メタデータ) (2023-08-01T15:25:51Z) - Safety-Critical Scenario Generation Via Reinforcement Learning Based
Editing [20.99962858782196]
本稿では,逐次編集による安全クリティカルなシナリオを生成する深層強化学習手法を提案する。
我々のフレームワークは、リスクと妥当性の両方の目的からなる報酬関数を用いています。
提案手法は, 従来手法と比較して, 品質の高い安全クリティカルなシナリオを生成することを示す。
論文 参考訳(メタデータ) (2023-06-25T05:15:25Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Active Surrogate Estimators: An Active Learning Approach to
Label-Efficient Model Evaluation [59.7305309038676]
モデル評価のためのアクティブサロゲート推定器(ASE)を提案する。
ASEは現在の最先端技術よりもラベル効率が高いことが分かりました。
論文 参考訳(メタデータ) (2022-02-14T17:15:18Z) - Sample-Efficient Reinforcement Learning via Conservative Model-Based
Actor-Critic [67.00475077281212]
モデルベース強化学習アルゴリズムは、モデルフリーのアルゴリズムよりもサンプル効率が高い。
本稿では,精度の高い学習モデルに強く依存することなく,高いサンプル効率を実現する新しい手法を提案する。
CMBACは,いくつかの課題に対して,サンプル効率の点で最先端のアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:33:11Z) - Efficient and Effective Generation of Test Cases for Pedestrian
Detection -- Search-based Software Testing of Baidu Apollo in SVL [14.482670650074885]
本稿では,SVLシミュレータ内での自律走行プラットフォームであるBaidu Apolloの歩行者検出と緊急制動システムの試験について述べる。
本稿では,SVL環境におけるApolloの障害検出シナリオを生成する進化的自動テスト生成手法を提案する。
また,本手法の有効性と有効性を示すため,ベースラインランダム生成手法の結果も報告する。
論文 参考訳(メタデータ) (2021-09-16T13:11:53Z) - Efficient falsification approach for autonomous vehicle validation using
a parameter optimisation technique based on reinforcement learning [6.198523595657983]
自律走行車(AV)の大規模展開は、まだ解決されていない多くの安全上の課題にもかかわらず、差し迫っているように見える。
交通参加者とダイナミックワールドの行動の不確実性は、先進的な自律システムにおいて反応を引き起こす。
本稿では,システム・アンダー・テストを評価するための効率的なファルシフィケーション手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T02:56:13Z) - Cross Learning in Deep Q-Networks [82.20059754270302]
本稿では、値に基づく強化学習手法において、よく知られた過大評価問題を緩和することを目的とした、新しいクロスQ-ラーニングアルゴリズムを提案する。
本アルゴリズムは,並列モデルの集合を維持し,ランダムに選択されたネットワークに基づいてQ値を算出することによって,二重Q-ラーニングに基づいて構築する。
論文 参考訳(メタデータ) (2020-09-29T04:58:17Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。