論文の概要: Bilateral Deep Reinforcement Learning Approach for Better-than-human Car
Following Model
- arxiv url: http://arxiv.org/abs/2203.04749v1
- Date: Thu, 3 Mar 2022 17:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 14:14:48.878714
- Title: Bilateral Deep Reinforcement Learning Approach for Better-than-human Car
Following Model
- Title(参考訳): 乗用車追従モデルのための双方向深部強化学習手法
- Authors: Tianyu Shi, Yifei Ai, Omar ElSamadisy, Baher Abdulhai
- Abstract要約: 後続車は自動運転における主要な機能である。
近年の文献では、後続の車両と後続の車両がシステム安定性の向上を図っている。
両立情報と報酬関数を組み込んだ自動車追従制御のためのDeep Reinforcement Learningフレームワークを提案し,導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the coming years and decades, autonomous vehicles (AVs) will become
increasingly prevalent, offering new opportunities for safer and more
convenient travel and potentially smarter traffic control methods exploiting
automation and connectivity. Car following is a prime function in autonomous
driving. Car following based on reinforcement learning has received attention
in recent years with the goal of learning and achieving performance levels
comparable to humans. However, most existing RL methods model car following as
a unilateral problem, sensing only the vehicle ahead. Recent literature,
however, Wang and Horn [16] has shown that bilateral car following that
considers the vehicle ahead and the vehicle behind exhibits better system
stability. In this paper we hypothesize that this bilateral car following can
be learned using RL, while learning other goals such as efficiency
maximisation, jerk minimization, and safety rewards leading to a learned model
that outperforms human driving.
We propose and introduce a Deep Reinforcement Learning (DRL) framework for
car following control by integrating bilateral information into both state and
reward function based on the bilateral control model (BCM) for car following
control. Furthermore, we use a decentralized multi-agent reinforcement learning
framework to generate the corresponding control action for each agent. Our
simulation results demonstrate that our learned policy is better than the human
driving policy in terms of (a) inter-vehicle headways, (b) average speed, (c)
jerk, (d) Time to Collision (TTC) and (e) string stability.
- Abstract(参考訳): 今後数年間、自動運転車(AV)はますます普及し、より安全で便利な旅行の機会と、自動化と接続性を活用したよりスマートな交通制御方法を提供する。
後続車は自動運転における主要な機能である。
近年,強化学習に基づく車の追従が注目され,人間に匹敵する性能水準の学習と達成が目指されている。
しかし、既存のRL手法のほとんどは一方的な問題であり、前方の車両のみを感知している。
しかし,近年のwang and horn [16]では,両車追従が前方車と後方車とを考慮し,システムの安定性が向上していることが示されている。
本稿では,この両車追従をrlを用いて学習し,効率の最大化,ジェルク最小化,安全報酬などの目標を学習し,人間の運転に勝る学習モデルへと導くことを仮定する。
本研究では,車追従制御のための二元制御モデル(bcm)に基づく状態と報酬関数に二元情報を統合して,車追従制御のための深層強化学習(drl)フレームワークを提案する。
さらに,分散マルチエージェント強化学習フレームワークを用いて,エージェント毎に対応する制御アクションを生成する。
我々のシミュレーション結果は、学習方針が人間の運転方針より優れていることを示している。
(a)車間ヘッドウェイ
(b)平均速度
c (複数形 cs)
(d)衝突までの時間(TTC)と
(e)弦安定性。
関連論文リスト
- A Systematic Study of Multi-Agent Deep Reinforcement Learning for Safe and Robust Autonomous Highway Ramp Entry [0.0]
本研究では,車体前方移動動作を制御するハイウェイランプ機能について検討し,車体が進入する高速道路交通の流れとの衝突を最小限に抑える。
我々はこの問題に対してゲーム理論的マルチエージェント(MA)アプローチを採用し、深層強化学習(DRL)に基づくコントローラの利用について検討する。
本稿では,2台以上の車両(エージェント)の相互作用を研究することで既存の作業を拡張し,交通量やエゴカーを付加して道路シーンを体系的に拡張する。
論文 参考訳(メタデータ) (2024-11-21T21:23:46Z) - SECRM-2D: RL-Based Efficient and Comfortable Route-Following Autonomous Driving with Analytic Safety Guarantees [5.156059061769101]
SECRM-2Dは、効率と快適性の最適化と固定経路に従うRL自律運転制御装置である。
シミュレーションテストシナリオにおいて,SECRM-2Dをいくつかの学習ベースラインおよび非学習ベースラインに対して評価する。
論文 参考訳(メタデータ) (2024-07-23T21:54:39Z) - Adaptive Autopilot: Constrained DRL for Diverse Driving Behaviors [12.812518632907771]
本研究では,制約深度強化学習(C-DRL)を利用した独自のフレームワークである適応オートパイロット(AA)を導入する。
AAは、ドライバーの介入の必要性を減らすために、人間の運転を安全にエミュレートすることを目的としている。
論文 参考訳(メタデータ) (2024-07-02T13:08:01Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Optimizing Autonomous Driving for Safety: A Human-Centric Approach with LLM-Enhanced RLHF [2.499371729440073]
RLHF(Reinforcement Learning from Human Feedback)は、大規模言語モデル(LLM)で人気がある。
RLHFは通常、微調整のステップで適用され、直接の「推奨」を必要とする。
ニュージャージー州とニューヨーク市にある実生活テストベッドから収集したデータを用いて、我々のモデルを検証します。
論文 参考訳(メタデータ) (2024-06-06T20:10:34Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Deep Reinforcement Learning for Human-Like Driving Policies in Collision
Avoidance Tasks of Self-Driving Cars [1.160208922584163]
自動運転ポリシーを生成するために,モデルフリーで深層強化学習手法を導入する。
本研究では,2車線道路における静的障害物回避タスクをシミュレーションで検討する。
このアプローチが人間ライクな運転ポリシーにつながることを実証します。
論文 参考訳(メタデータ) (2020-06-07T18:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。