論文の概要: Vision-based DRL Autonomous Driving Agent with Sim2Real Transfer
- arxiv url: http://arxiv.org/abs/2305.11589v2
- Date: Wed, 4 Oct 2023 12:52:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 21:58:14.746096
- Title: Vision-based DRL Autonomous Driving Agent with Sim2Real Transfer
- Title(参考訳): Sim2Realトランスファーを用いたビジョンベースDRL自律運転エージェント
- Authors: Dianzhao Li and Ostap Okhrin
- Abstract要約: 本稿では,車線維持と車線追従を同時に行うことができるビジョンベース深部強化学習(DRL)エージェントを提案する。
私たちの知る限りでは、Sim2Real転送機能を備えたビジョンベースカーと車線維持エージェントは、この種のものとしては初めてです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To achieve fully autonomous driving, vehicles must be capable of continuously
performing various driving tasks, including lane keeping and car following,
both of which are fundamental and well-studied driving ones. However, previous
studies have mainly focused on individual tasks, and car following tasks have
typically relied on complete leader-follower information to attain optimal
performance. To address this limitation, we propose a vision-based deep
reinforcement learning (DRL) agent that can simultaneously perform lane keeping
and car following maneuvers. To evaluate the performance of our DRL agent, we
compare it with a baseline controller and use various performance metrics for
quantitative analysis. Furthermore, we conduct a real-world evaluation to
demonstrate the Sim2Real transfer capability of the trained DRL agent. To the
best of our knowledge, our vision-based car following and lane keeping agent
with Sim2Real transfer capability is the first of its kind.
- Abstract(参考訳): 完全自動運転を実現するためには、車線維持や車追従など、基本かつ十分に研究された運転タスクを継続的に行う必要がある。
しかし、以前の研究では主に個々のタスクに焦点を合わせており、自動車追従タスクは通常、最適なパフォーマンスを達成するために完全なリーダ・フォロワー情報に依存している。
この制限に対処するために,車線維持と車線追従操作を同時に行うことができるビジョンベース深部強化学習(DRL)エージェントを提案する。
DRLエージェントの性能を評価するため,ベースラインコントローラと比較し,様々な性能指標を用いて定量的解析を行った。
さらに,訓練されたDRLエージェントのSim2Real転送能力を示す実世界の評価を行った。
われわれの知る限りでは、われわれのビジョンベースの車追従およびレーン維持エージェントがsim2real転送能力を持つのは、この種の最初のものだ。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - DDPG car-following model with real-world human driving experience in
CARLA [0.0]
そこで本研究では,現実世界の人間の運転から学習し,純粋なDRLエージェントよりも優れた性能を実現する2段階のDeep Reinforcement Learning(DRL)手法を提案する。
評価のために、提案した2段DRLエージェントと純粋なDRLエージェントを比較するために、異なる実世界の運転シナリオを設計した。
論文 参考訳(メタデータ) (2021-12-29T15:22:31Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Investigating Value of Curriculum Reinforcement Learning in Autonomous
Driving Under Diverse Road and Weather Conditions [0.0]
本稿では,自動運転アプリケーションにおけるカリキュラム強化学習の価値を検討する。
道路の複雑さや気象条件の異なる現実的な運転シミュレータで、複数の異なる運転シナリオを設定しました。
その結果、カリキュラムRLは、運転性能とサンプルの複雑さの両方の観点から、複雑な運転タスクで有意な利益を得ることができます。
論文 参考訳(メタデータ) (2021-03-14T12:05:05Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Deep Surrogate Q-Learning for Autonomous Driving [17.30342128504405]
本稿では,自律運転における車線変更行動学習のためのSurrogate Q-learningを提案する。
このアーキテクチャは、Scene-centric Experience Replayと呼ばれる新しいリプレイサンプリング技術に繋がることを示す。
また,本手法は実高Dデータセット上のポリシーを学習することで,実世界のRLシステムの適用性を向上させる。
論文 参考訳(メタデータ) (2020-10-21T19:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。