論文の概要: WAD: A Deep Reinforcement Learning Agent for Urban Autonomous Driving
- arxiv url: http://arxiv.org/abs/2108.12134v1
- Date: Fri, 27 Aug 2021 06:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:17:31.117008
- Title: WAD: A Deep Reinforcement Learning Agent for Urban Autonomous Driving
- Title(参考訳): wad: 都市自動運転のための深層強化学習エージェント
- Authors: Arjit Sharma and Sahil Sharma
- Abstract要約: 本稿では,DRL駆動型ウォッチ・アンド・ドライブ(WAD)エージェントをエンド・ツー・エンドの都市自動運転に適用する。
この研究は、最近の進歩により、CARLAの高次元空間における重要な物体や状態を検出し、それらから潜伏状態を取り出すことを目的としている。
我々の新しいアプローチは、少ないリソース、異なる運転タスクのステップバイステップ学習、ハードエピソード終了ポリシー、報酬メカニズムを利用して、エージェントは全ての運転タスクで100%の成功率を達成することができた。
- 参考スコア(独自算出の注目度): 8.401473551081747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Urban autonomous driving is an open and challenging problem to solve as the
decision-making system has to account for several dynamic factors like
multi-agent interactions, diverse scene perceptions, complex road geometries,
and other rarely occurring real-world events. On the other side, with deep
reinforcement learning (DRL) techniques, agents have learned many complex
policies. They have even achieved super-human-level performances in various
Atari Games and Deepmind's AlphaGo. However, current DRL techniques do not
generalize well on complex urban driving scenarios. This paper introduces the
DRL driven Watch and Drive (WAD) agent for end-to-end urban autonomous driving.
Motivated by recent advancements, the study aims to detect important
objects/states in high dimensional spaces of CARLA and extract the latent state
from them. Further, passing on the latent state information to WAD agents based
on TD3 and SAC methods to learn the optimal driving policy. Our novel approach
utilizing fewer resources, step-by-step learning of different driving tasks,
hard episode termination policy, and reward mechanism has led our agents to
achieve a 100% success rate on all driving tasks in the original CARLA
benchmark and set a new record of 82% on further complex NoCrash benchmark,
outperforming the state-of-the-art model by more than +30% on NoCrash
benchmark.
- Abstract(参考訳): 都市での自律運転はオープンで困難な問題であり、意思決定システムはマルチエージェントインタラクション、多様なシーン認識、複雑な道路ジオメトリ、そして稀に発生しない現実世界の出来事など、いくつかの動的要因を考慮しなければならない。
一方、深層強化学習(DRL)技術により、エージェントは多くの複雑な政策を学んだ。
Atari GamesやDeepmindのAlphaGoでもスーパーヒューマンレベルのパフォーマンスを達成している。
しかし、現在のDRL技術は複雑な都市運転シナリオではうまく一般化しない。
本稿では,DRL駆動型ウォッチ・アンド・ドライブ(WAD)エージェントをエンド・ツー・エンドの都市自動運転に適用する。
この研究は、最近の進歩により、CARLAの高次元空間における重要な物体や状態を検出し、それらから潜伏状態を取り出すことを目的としている。
さらに、TD3およびSAC法に基づいて、潜伏状態情報をWADエージェントに渡すことにより、最適駆動ポリシーを学習する。
我々の新しいアプローチでは、リソースの削減、異なる運転タスクのステップバイステップ学習、ハードエピソード終了ポリシー、報酬メカニズムにより、エージェントは元のCARLAベンチマークの全運転タスクにおいて100%の成功率を達成することができ、さらに複雑なNoCrashベンチマークでは82%の新記録を樹立し、NoCrashベンチマークでは30%以上の最先端モデルを上回りました。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep
Reinforcement Learning [7.2282857478457805]
DRNetは、DRLエージェントがシミュレートされた高速道路上で合理的な車線変更を行うことで、運転を学べる新しいDRLベースのフレームワークである。
我々のDRLエージェントは、衝突を起こさずに所望のタスクを学習でき、DDQNや他のベースラインモデルより優れています。
論文 参考訳(メタデータ) (2023-11-02T21:17:52Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Action and Trajectory Planning for Urban Autonomous Driving with
Hierarchical Reinforcement Learning [1.3397650653650457]
本稿では,階層型強化学習法(atHRL)を用いた行動・軌道プランナを提案する。
我々は、複雑な都市運転シナリオにおける広範な実験を通して、atHRLの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-28T07:11:02Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - DDPG car-following model with real-world human driving experience in
CARLA [0.0]
そこで本研究では,現実世界の人間の運転から学習し,純粋なDRLエージェントよりも優れた性能を実現する2段階のDeep Reinforcement Learning(DRL)手法を提案する。
評価のために、提案した2段DRLエージェントと純粋なDRLエージェントを比較するために、異なる実世界の運転シナリオを設計した。
論文 参考訳(メタデータ) (2021-12-29T15:22:31Z) - DriverGym: Democratising Reinforcement Learning for Autonomous Driving [75.91049219123899]
本稿では,自律運転のための強化学習アルゴリズムを開発するオープンソース環境であるDeadGymを提案する。
DriverGymは1000時間以上の専門家ログデータへのアクセスを提供し、リアクティブおよびデータ駆動エージェントの動作をサポートする。
広範かつフレキシブルなクローズループ評価プロトコルを用いて,実世界のデータ上でRLポリシーの性能を容易に検証できる。
論文 参考訳(メタデータ) (2021-11-12T11:47:08Z) - MetaDrive: Composing Diverse Driving Scenarios for Generalizable
Reinforcement Learning [25.191567110519866]
我々は,強化学習アルゴリズムの研究のために,MetaDriveと呼ばれる新しい運転シミュレーションプラットフォームを開発した。
MetaDriveをベースとして、シングルエージェントとマルチエージェントの両方の設定でさまざまなRLタスクとベースラインを構築します。
論文 参考訳(メタデータ) (2021-09-26T18:34:55Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。