論文の概要: Quantitative and Qualitative Evaluation of Reinforcement Learning
Policies for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2309.08254v1
- Date: Fri, 15 Sep 2023 09:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:11:51.747023
- Title: Quantitative and Qualitative Evaluation of Reinforcement Learning
Policies for Autonomous Vehicles
- Title(参考訳): 自動運転車の強化学習政策の定量的・質的評価
- Authors: Laura Ferrarotti, Massimiliano Luca, Gabriele Santin, Giorgio
Previati, Gianpiero Mastinu, Elena Campi, Lorenzo Uccello, Antonino Albanese,
Praveen Zalaya, Alessandro Roccasalva, Bruno Lepri
- Abstract要約: 本稿では、強化学習アルゴリズムを用いて、AVの選択を最適化するための新しいアプローチを提案する。
我々は,イタリア・ミラノのラウンドアバウトにおいて,交通渋滞を最小化(シナリオを横断する時間を最小限にする)し,汚染を最小限にする政策を学んだ。
最先端のコックピットを用いて学習方針を定性的に評価し,実世界に近い環境下での性能を評価する。
- 参考スコア(独自算出の注目度): 35.60467257991338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing traffic dynamics in an evolving transportation landscape is
crucial, particularly in scenarios where autonomous vehicles (AVs) with varying
levels of autonomy coexist with human-driven cars. This paper presents a novel
approach to optimizing choices of AVs using Proximal Policy Optimization (PPO),
a reinforcement learning algorithm. We learned a policy to minimize traffic
jams (i.e., minimize the time to cross the scenario) and to minimize pollution
in a roundabout in Milan, Italy. Through empirical analysis, we demonstrate
that our approach can reduce time and pollution levels. Furthermore, we
qualitatively evaluate the learned policy using a cutting-edge cockpit to
assess its performance in near-real-world conditions. To gauge the practicality
and acceptability of the policy, we conducted evaluations with human
participants using the simulator, focusing on a range of metrics like traffic
smoothness and safety perception. In general, our findings show that
human-driven vehicles benefit from optimizing AVs dynamics. Also, participants
in the study highlighted that the scenario with 80\% AVs is perceived as safer
than the scenario with 20\%. The same result is obtained for traffic smoothness
perception.
- Abstract(参考訳): 進化する交通環境での交通力学の最適化は、特に自律性レベルが異なる自動運転車(av)が人間駆動車と共存するシナリオにおいて重要である。
本稿では,強化学習アルゴリズムであるproximal policy optimization (ppo) を用いたavの最適化手法を提案する。
我々は,イタリア・ミラノのラウンドアバウトにおいて,交通渋滞を最小化(シナリオを横断する時間を最小限にする)し,汚染を最小限にする政策を学んだ。
実証分析により,本手法は時間と汚染レベルを低減できることを示した。
さらに,最先端のコックピットを用いて学習方針を質的に評価し,実世界に近い条件下での性能を評価する。
提案手法の実用性と受容性を評価するため,交通のスムーズさや安全知覚などの指標に着目し,シミュレータを用いた被験者による評価を行った。
一般的には、人間の運転する車両は、AVのダイナミクスを最適化する利点がある。
また、この研究の参加者は、80\% avのシナリオは20\%のシナリオよりも安全だと感じていることを強調した。
交通平滑度知覚についても同様の結果が得られた。
関連論文リスト
- Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - EnduRL: Enhancing Safety, Stability, and Efficiency of Mixed Traffic Under Real-World Perturbations Via Reinforcement Learning [1.7273380623090846]
実世界の走行軌道を解析し、幅広い加速度プロファイルを抽出する。
次に、これらのプロファイルを、混雑を軽減するためにRVをトレーニングするためのシミュレーションに組み込む。
RVの安全性は最大66%向上し、効率は最大54%向上し、安定性は最大97%向上した。
論文 参考訳(メタデータ) (2023-11-21T00:45:13Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Studying the Impact of Semi-Cooperative Drivers on Overall Highway Flow [76.38515853201116]
半協調行動は、人間ドライバーの本質的な性質であり、自律運転には考慮すべきである。
新たな自律型プランナーは、社会的に準拠した軌道を生成するために、人間のドライバーの社会的価値指向(SVO)を考慮することができる。
エージェントが反復的最適応答のゲーム理論バージョンをデプロイする暗黙的な半協調運転について検討する。
論文 参考訳(メタデータ) (2023-04-23T16:01:36Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Adversarial Evaluation of Autonomous Vehicles in Lane-Change Scenarios [10.53961877853783]
対戦環境における自律走行車の評価を効率よく行うための適応評価フレームワークを提案する。
危険なシナリオのマルチモーダルな性質を考慮すると、多様性のために異なる局所最適化を表現するためにアンサンブルモデルを使用する。
その結果,テスト車両の性能は有意に低下した。
論文 参考訳(メタデータ) (2020-04-14T14:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。