論文の概要: Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World
- arxiv url: http://arxiv.org/abs/2009.11212v1
- Date: Wed, 23 Sep 2020 15:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:56:44.314756
- Title: Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World
- Title(参考訳): ロバスト強化学習に基づくシミュレーションと実世界のための自律運転エージェント
- Authors: P\'eter Alm\'asi, R\'obert Moni, B\'alint Gyires-T\'oth
- Abstract要約: 本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Reinforcement Learning (DRL) has been successfully used to solve
different challenges, e.g. complex board and computer games, recently. However,
solving real-world robotics tasks with DRL seems to be a more difficult
challenge. The desired approach would be to train the agent in a simulator and
transfer it to the real world. Still, models trained in a simulator tend to
perform poorly in real-world environments due to the differences. In this
paper, we present a DRL-based algorithm that is capable of performing
autonomous robot control using Deep Q-Networks (DQN). In our approach, the
agent is trained in a simulated environment and it is able to navigate both in
a simulated and real-world environment. The method is evaluated in the
Duckietown environment, where the agent has to follow the lane based on a
monocular camera input. The trained agent is able to run on limited hardware
resources and its performance is comparable to state-of-the-art approaches.
- Abstract(参考訳): 深層強化学習(DRL)は、近年、複雑なボードやコンピュータゲームなど、様々な課題の解決に成功している。
しかし、現実世界のロボット工学タスクをDRLで解くことは、より難しい課題である。
望ましいアプローチは、シミュレーターのエージェントを訓練し、それを現実世界に転送することである。
それでもシミュレータでトレーニングされたモデルは、実際の環境ではパフォーマンスが悪い傾向がある。
本稿では,Deep Q-Networks (DQN) を用いた自律ロボット制御を実現するDRLに基づくアルゴリズムを提案する。
このアプローチでは,エージェントはシミュレーション環境において訓練され,シミュレーション環境と実環境の両方でナビゲートすることができる。
この方法は、単眼カメラの入力に基づいて、エージェントが車線を従わなければならないダッキータウン環境で評価される。
トレーニングされたエージェントは限られたハードウェアリソースで実行でき、そのパフォーマンスは最先端のアプローチに匹敵する。
関連論文リスト
- Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - A Platform-Agnostic Deep Reinforcement Learning Framework for Effective Sim2Real Transfer towards Autonomous Driving [0.0]
深層強化学習(DRL)は複雑なタスクの解決に顕著な成功を収めた。
シミュレーションと現実の間に大きな違いがあるため、DRLエージェントを現実世界に転送することは依然として困難である。
本稿では、プラットフォームに依存した認識モジュールを利用してタスク関連情報を抽出する頑健なDRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T07:55:07Z) - Discrete Control in Real-World Driving Environments using Deep
Reinforcement Learning [2.467408627377504]
本研究では,現実の環境をゲーム環境に移行させる,現実の運転環境におけるフレームワーク(知覚,計画,制御)を紹介する。
実環境における離散制御を学習し,実行するために,既存の強化学習(RL)アルゴリズムを多エージェント設定で提案する。
論文 参考訳(メタデータ) (2022-11-29T04:24:03Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Vision-Guided Quadrupedal Locomotion in the Wild with Multi-Modal Delay
Randomization [9.014518402531875]
我々は、予め定義されたコントローラや参照動作を使わずに、物理シミュレータにおけるエンドツーエンド制御のためのRLポリシーを訓練する。
ロボットが高速でスムーズに動き、障害物を回避し、ベースラインよりも大幅に改善できることを実証する。
論文 参考訳(メタデータ) (2021-09-29T16:48:05Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - How To Train Your HERON [15.49567616697007]
シミュレーションでモデルベースのRLエージェントを訓練し、湖岸や河川岸を追従し、ゼロショット設定で本物の無人サーフェス車両に適用します。
RL エージェントは,状態認識型 Model-Predictive-Controller よりも堅牢で,高速で,正確であることを示す。
論文 参考訳(メタデータ) (2021-02-20T14:22:21Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。