論文の概要: Bilateral Deep Reinforcement Learning Approach for Better-than-human Car
Following Model
- arxiv url: http://arxiv.org/abs/2203.04749v1
- Date: Thu, 3 Mar 2022 17:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 14:14:48.878714
- Title: Bilateral Deep Reinforcement Learning Approach for Better-than-human Car
Following Model
- Title(参考訳): 乗用車追従モデルのための双方向深部強化学習手法
- Authors: Tianyu Shi, Yifei Ai, Omar ElSamadisy, Baher Abdulhai
- Abstract要約: 後続車は自動運転における主要な機能である。
近年の文献では、後続の車両と後続の車両がシステム安定性の向上を図っている。
両立情報と報酬関数を組み込んだ自動車追従制御のためのDeep Reinforcement Learningフレームワークを提案し,導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the coming years and decades, autonomous vehicles (AVs) will become
increasingly prevalent, offering new opportunities for safer and more
convenient travel and potentially smarter traffic control methods exploiting
automation and connectivity. Car following is a prime function in autonomous
driving. Car following based on reinforcement learning has received attention
in recent years with the goal of learning and achieving performance levels
comparable to humans. However, most existing RL methods model car following as
a unilateral problem, sensing only the vehicle ahead. Recent literature,
however, Wang and Horn [16] has shown that bilateral car following that
considers the vehicle ahead and the vehicle behind exhibits better system
stability. In this paper we hypothesize that this bilateral car following can
be learned using RL, while learning other goals such as efficiency
maximisation, jerk minimization, and safety rewards leading to a learned model
that outperforms human driving.
We propose and introduce a Deep Reinforcement Learning (DRL) framework for
car following control by integrating bilateral information into both state and
reward function based on the bilateral control model (BCM) for car following
control. Furthermore, we use a decentralized multi-agent reinforcement learning
framework to generate the corresponding control action for each agent. Our
simulation results demonstrate that our learned policy is better than the human
driving policy in terms of (a) inter-vehicle headways, (b) average speed, (c)
jerk, (d) Time to Collision (TTC) and (e) string stability.
- Abstract(参考訳): 今後数年間、自動運転車(AV)はますます普及し、より安全で便利な旅行の機会と、自動化と接続性を活用したよりスマートな交通制御方法を提供する。
後続車は自動運転における主要な機能である。
近年,強化学習に基づく車の追従が注目され,人間に匹敵する性能水準の学習と達成が目指されている。
しかし、既存のRL手法のほとんどは一方的な問題であり、前方の車両のみを感知している。
しかし,近年のwang and horn [16]では,両車追従が前方車と後方車とを考慮し,システムの安定性が向上していることが示されている。
本稿では,この両車追従をrlを用いて学習し,効率の最大化,ジェルク最小化,安全報酬などの目標を学習し,人間の運転に勝る学習モデルへと導くことを仮定する。
本研究では,車追従制御のための二元制御モデル(bcm)に基づく状態と報酬関数に二元情報を統合して,車追従制御のための深層強化学習(drl)フレームワークを提案する。
さらに,分散マルチエージェント強化学習フレームワークを用いて,エージェント毎に対応する制御アクションを生成する。
我々のシミュレーション結果は、学習方針が人間の運転方針より優れていることを示している。
(a)車間ヘッドウェイ
(b)平均速度
c (複数形 cs)
(d)衝突までの時間(TTC)と
(e)弦安定性。
関連論文リスト
- Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal
Locomotion Control [112.66677641636299]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Non-zero-sum Game Control for Multi-vehicle Driving via Reinforcement
Learning [0.0]
本稿では,非ゼロサムゲームとしてマルチサイクル駆動シナリオを構築した。
決定はナッシュ均衡駆動戦略によってなされる。
我々のアルゴリズムは、加速度と操舵角を直接制御することで、完全に駆動できる。
論文 参考訳(メタデータ) (2023-02-08T09:27:20Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Formula RL: Deep Reinforcement Learning for Autonomous Racing using
Telemetry Data [4.042350304426975]
この問題を,車両のテレメトリと連続的な動作空間からなる多次元入力を用いて強化学習タスクとして構成する。
我々は,2つの実験において,Deep Deterministic Policy gradient (DDPG) の10変種をレースに投入した。
研究によると、rlでトレーニングされたモデルは、オープンソースの手作りロボットよりも高速に運転できるだけでなく、未知のトラックに一般化できる。
論文 参考訳(メタデータ) (2021-04-22T14:40:12Z) - Weakly Supervised Reinforcement Learning for Autonomous Highway Driving
via Virtual Safety Cages [42.57240271305088]
規則に基づく安全ケージは、車両の安全性の向上と強化学習エージェントに対する弱い監督を提供する自律型車両の縦方向制御に対する強化学習ベースのアプローチを提示する。
モデルパラメータが制約されたり,あるいは最適化されていない場合,モデルが強化学習だけでは運転を訓練できない場合でも,モデルが安全な運転方針を学習できることを示す。
論文 参考訳(メタデータ) (2021-03-17T15:30:36Z) - Efficient Connected and Automated Driving System with Multi-agent Graph
Reinforcement Learning [22.369111982782634]
最近、コネクテッド・アンド・オートマチック・ビークル(CAV)が注目を集めている。
我々は,各自動走行車両が相互に協力関係を学べるようにすることで,交通システム全体の成果を改善する方法に焦点をあてる。
論文 参考訳(メタデータ) (2020-07-06T14:55:48Z) - Deep Reinforcement Learning for Human-Like Driving Policies in Collision
Avoidance Tasks of Self-Driving Cars [1.160208922584163]
自動運転ポリシーを生成するために,モデルフリーで深層強化学習手法を導入する。
本研究では,2車線道路における静的障害物回避タスクをシミュレーションで検討する。
このアプローチが人間ライクな運転ポリシーにつながることを実証します。
論文 参考訳(メタデータ) (2020-06-07T18:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。