論文の概要: Formula RL: Deep Reinforcement Learning for Autonomous Racing using
Telemetry Data
- arxiv url: http://arxiv.org/abs/2104.11106v1
- Date: Thu, 22 Apr 2021 14:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 17:24:36.411922
- Title: Formula RL: Deep Reinforcement Learning for Autonomous Racing using
Telemetry Data
- Title(参考訳): フォーミュラRL:テレメトリデータを用いた自律レースの深部強化学習
- Authors: Adrian Remonda, Sarah Krebs, Eduardo Veas, Granit Luzhnica, Roman Kern
- Abstract要約: この問題を,車両のテレメトリと連続的な動作空間からなる多次元入力を用いて強化学習タスクとして構成する。
我々は,2つの実験において,Deep Deterministic Policy gradient (DDPG) の10変種をレースに投入した。
研究によると、rlでトレーニングされたモデルは、オープンソースの手作りロボットよりも高速に運転できるだけでなく、未知のトラックに一般化できる。
- 参考スコア(独自算出の注目度): 4.042350304426975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the use of reinforcement learning (RL) models for
autonomous racing. In contrast to passenger cars, where safety is the top
priority, a racing car aims to minimize the lap-time. We frame the problem as a
reinforcement learning task with a multidimensional input consisting of the
vehicle telemetry, and a continuous action space. To find out which RL methods
better solve the problem and whether the obtained models generalize to driving
on unknown tracks, we put 10 variants of deep deterministic policy gradient
(DDPG) to race in two experiments: i)~studying how RL methods learn to drive a
racing car and ii)~studying how the learning scenario influences the capability
of the models to generalize. Our studies show that models trained with RL are
not only able to drive faster than the baseline open source handcrafted bots
but also generalize to unknown tracks.
- Abstract(参考訳): 本稿では,自動運転における強化学習(rl)モデルの利用について検討する。
安全が最優先の乗用車とは対照的に、レーシングカーはラップタイムを最小化することを目指している。
この問題を,車両のテレメトリと連続的な動作空間からなる多次元入力を用いて強化学習タスクとして構成する。
いずれのrl手法がこの問題をより解決し、得られたモデルが未知のトラック上での運転に一般化するかを明らかにするため、我々は2つの実験で10種類の深い決定論的ポリシー勾配 (ddpg) をレースに投入した: i) rl手法がレーシングカーの運転をいかに学ぶかの研究 ii) 学習シナリオがモデルが一般化する能力にどのように影響するかを考察する。
研究によると、rlでトレーニングされたモデルは、オープンソースの手作りロボットよりも高速に運転できるだけでなく、未知のトラックに一般化できる。
関連論文リスト
- CIMRL: Combining IMitation and Reinforcement Learning for Safe Autonomous Driving [45.05135725542318]
CIMRL(imitation and Reinforcement Learning)アプローチは、模倣動作の先行と安全性の制約を活用することで、シミュレーションにおける運転ポリシーのトレーニングを可能にする。
RLと模倣を組み合わせることで, クローズドループシミュレーションと実世界の運転ベンチマークにおいて, 最先端の結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-06-13T07:31:29Z) - Demystifying the Physics of Deep Reinforcement Learning-Based Autonomous Vehicle Decision-Making [6.243971093896272]
本稿では,ベースラインモデルとしてポリシー最適化に基づくDRLアルゴリズムを用い,オープンソースのAVシミュレーション環境にマルチヘッドアテンションフレームワークを付加する。
第1頭部の重みは隣接する車両の位置を符号化し、第2頭部は先頭車両のみに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-18T02:59:13Z) - Racing Towards Reinforcement Learning based control of an Autonomous
Formula SAE Car [1.0124625066746598]
本稿では,自動レースカーのエンド・ツー・エンド制御における深層強化学習(RL)の活用に関する最初の研究について述べる。
本稿では,Turtlebot2プラットフォーム上でのフルスケール設計に類似したトラック上で,2つの最先端RLアルゴリズムをシミュレーションで訓練する。
その結果,本手法はシミュレーションでレースを学習し,物理プラットフォーム上で現実の競馬場に移動することに成功した。
論文 参考訳(メタデータ) (2023-08-24T21:16:03Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Vehicle Dynamics Modeling for Autonomous Racing Using Gaussian Processes [0.0]
本稿では,自動走行における車両動力学の近似におけるGPモデルの適用性について,最も詳細な解析を行った。
人気のあるF1TENTHレーシングプラットフォームのための動的および拡張キネマティックモデルを構築した。
論文 参考訳(メタデータ) (2023-06-06T04:53:06Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - RvS: What is Essential for Offline RL via Supervised Learning? [77.91045677562802]
近年の研究では、時間差(TD)のない教師あり学習だけでオフラインRLに極めて効果的であることが示されている。
あらゆる環境スイートにおいて、2層フィードフォワードによる可能性の最大化は競争力がある。
彼らはまた、ランダムデータに対して比較的弱い既存のRvS法の限界を探索する。
論文 参考訳(メタデータ) (2021-12-20T18:55:16Z) - DriverGym: Democratising Reinforcement Learning for Autonomous Driving [75.91049219123899]
本稿では,自律運転のための強化学習アルゴリズムを開発するオープンソース環境であるDeadGymを提案する。
DriverGymは1000時間以上の専門家ログデータへのアクセスを提供し、リアクティブおよびデータ駆動エージェントの動作をサポートする。
広範かつフレキシブルなクローズループ評価プロトコルを用いて,実世界のデータ上でRLポリシーの性能を容易に検証できる。
論文 参考訳(メタデータ) (2021-11-12T11:47:08Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - On the Theory of Reinforcement Learning with Once-per-Episode Feedback [120.5537226120512]
本稿では,エピソード終盤に一度だけフィードバックを受ける強化学習の理論を紹介する。
これは、学習者が毎回フィードバックを受け取るという従来の要件よりも、現実世界のアプリケーションの代表的です。
論文 参考訳(メタデータ) (2021-05-29T19:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。