論文の概要: Automated Lane Change Strategy using Proximal Policy Optimization-based
Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2002.02667v2
- Date: Wed, 20 May 2020 23:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:19:41.033225
- Title: Automated Lane Change Strategy using Proximal Policy Optimization-based
Deep Reinforcement Learning
- Title(参考訳): 近似政策最適化に基づく深層強化学習を用いた車線自動変更戦略
- Authors: Fei Ye, Xuxin Cheng, Pin Wang, Ching-Yao Chan, Jiucai Zhang
- Abstract要約: レーン変更操作は、一般に、特定のルーティング計画に従い、遅い車両を乗り越え、前方のマージレーンに適応するなど、ドライバによって実行される。
本研究では,近位政策最適化に基づく深層強化学習を用いた自動車線変更戦略を提案する。
訓練されたエージェントは、車線変更決定を行うためのスムーズで安全で効率的な運転ポリシーを学ぶことができる。
- 参考スコア(独自算出の注目度): 10.909595997847443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane-change maneuvers are commonly executed by drivers to follow a certain
routing plan, overtake a slower vehicle, adapt to a merging lane ahead, etc.
However, improper lane change behaviors can be a major cause of traffic flow
disruptions and even crashes. While many rule-based methods have been proposed
to solve lane change problems for autonomous driving, they tend to exhibit
limited performance due to the uncertainty and complexity of the driving
environment. Machine learning-based methods offer an alternative approach, as
Deep reinforcement learning (DRL) has shown promising success in many
application domains including robotic manipulation, navigation, and playing
video games. However, applying DRL to autonomous driving still faces many
practical challenges in terms of slow learning rates, sample inefficiency, and
safety concerns. In this study, we propose an automated lane change strategy
using proximal policy optimization-based deep reinforcement learning, which
shows great advantages in learning efficiency while still maintaining stable
performance. The trained agent is able to learn a smooth, safe, and efficient
driving policy to make lane-change decisions (i.e. when and how) in a
challenging situation such as dense traffic scenarios. The effectiveness of the
proposed policy is validated by using metrics of task success rate and
collision rate. The simulation results demonstrate the lane change maneuvers
can be efficiently learned and executed in a safe, smooth, and efficient
manner.
- Abstract(参考訳): レーン変更操作は、ドライバーが特定の経路計画に従い、より遅い車両を追い越したり、前方のマージレーンに適応したりするために一般的に実行される。
しかし、不適切な車線変更の挙動は、交通流の混乱やクラッシュの主な原因となり得る。
自動運転車の車線変更問題を解決するために多くのルールベース手法が提案されているが、運転環境の不確実性と複雑さのために性能が制限されている。
深層強化学習(drl)は、ロボット操作、ナビゲーション、ビデオゲームのプレイなど、多くのアプリケーションドメインで有望な成功を収めている。
しかし、自律運転にDRLを適用することは、遅い学習率、サンプルの非効率性、安全上の懸念など、多くの実践的な課題に直面している。
本研究では,近位政策最適化に基づく深層強化学習を用いた自動車線変更戦略を提案する。
訓練されたエージェントは、密集した交通シナリオのような困難な状況で車線変更決定(つまり、いつ、どのように)を行うためのスムーズで安全で効率的な運転方針を学ぶことができる。
提案手法の有効性は,タスク成功率と衝突速度の指標を用いて検証した。
シミュレーションの結果,車線変更操作を安全,円滑,効率的な方法で効率的に学習し実行できることが示されている。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep
Reinforcement Learning [7.2282857478457805]
DRNetは、DRLエージェントがシミュレートされた高速道路上で合理的な車線変更を行うことで、運転を学べる新しいDRLベースのフレームワークである。
我々のDRLエージェントは、衝突を起こさずに所望のタスクを学習でき、DDQNや他のベースラインモデルより優れています。
論文 参考訳(メタデータ) (2023-11-02T21:17:52Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Efficient Reinforcement Learning for Autonomous Driving with
Parameterized Skills and Priors [16.87227671645374]
ASAP-RLは自律運転のための効率的な強化学習アルゴリズムである。
専門的なデモンストレーションを制御空間からスキル空間に変換するために,スキルパラメータ逆回復法を提案する。
本手法は, 単純かつスパースな報酬を付与した対話型高密度交通運転タスクにおいて, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T01:39:35Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Quick Learner Automated Vehicle Adapting its Roadmanship to Varying
Traffic Cultures with Meta Reinforcement Learning [15.570621284198017]
我々は,メタ強化学習(MRL)駆動ポリシーを開発し,その迅速な学習能力を示す。
MRL駆動方式の高速適応性を検証するため, 環境中の2種類の分布変動をシミュレートし, シミュレーションを行った。
論文 参考訳(メタデータ) (2021-04-18T15:04:37Z) - Decision-making for Autonomous Vehicles on Highway: Deep Reinforcement
Learning with Continuous Action Horizon [14.059728921828938]
本稿では,高速道路における連続水平決定問題に対処するために,深部強化学習(DRL)手法を用いる。
エゴ自動車両の走行目標は、衝突することなく効率的でスムーズなポリシーを実行することである。
PPO-DRLに基づく意思決定戦略は、最適性、学習効率、適応性など、複数の観点から推定される。
論文 参考訳(メタデータ) (2020-08-26T22:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。