論文の概要: Autonomous Racing using a Hybrid Imitation-Reinforcement Learning
Architecture
- arxiv url: http://arxiv.org/abs/2110.05437v1
- Date: Mon, 11 Oct 2021 17:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 16:44:30.170269
- Title: Autonomous Racing using a Hybrid Imitation-Reinforcement Learning
Architecture
- Title(参考訳): ハイブリッド模倣強化学習アーキテクチャを用いた自律レース
- Authors: Chinmay Vilas Samak, Tanmay Vilas Samak and Sivanathan Kandhasamy
- Abstract要約: 本稿では,タイムアタックレースイベントにおけるラップタイムの最小化を目的とした,自動運転車のエンドツーエンド制御戦略を提案する。
また,正確な車体・環境力学をシミュレートするAutoRACEシミュレータも導入した。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a rigorous end-to-end control strategy for
autonomous vehicles aimed at minimizing lap times in a time attack racing
event. We also introduce AutoRACE Simulator developed as a part of this
research project, which was employed to simulate accurate vehicular and
environmental dynamics along with realistic audio-visual effects. We adopted a
hybrid imitation-reinforcement learning architecture and crafted a novel reward
function to train a deep neural network policy to drive (using imitation
learning) and race (using reinforcement learning) a car autonomously in less
than 20 hours. Deployment results were reported as a direct comparison of 10
autonomous laps against 100 manual laps by 10 different human players. The
autonomous agent not only exhibited superior performance by gaining 0.96
seconds over the best manual lap, but it also dominated the human players by
1.46 seconds with regard to the mean lap time. This dominance could be
justified in terms of better trajectory optimization and lower reaction time of
the autonomous agent.
- Abstract(参考訳): 本稿では,タイムアタックレースにおけるラップタイムを最小化することを目的とした,自律走行車に対する厳密なエンドツーエンド制御戦略を提案する。
また,本研究の一環として開発されたAutoRACEシミュレータを導入し,実際の音響・視覚効果とともに,正確な車体・環境力学をシミュレートした。
我々は,ハイブリッド模倣強化学習アーキテクチャを採用し,20時間以内の自律走行(模倣学習による)とレース(強化学習による)を駆動する深層ニューラルネットワークポリシを訓練する新たな報酬関数を作成した。
展開結果は、10人の異なるプレイヤーによる100のマニュアルラップと10の自律ラップの直接比較として報告された。
自律エージェントは最高の手動ラップで0.96秒を達成して優れたパフォーマンスを示しただけでなく、平均ラップタイムに関して人間選手を1.46秒差で支配した。
この支配は、自律エージェントの軌道最適化と反応時間の低減の観点から正当化することができる。
関連論文リスト
- er.autopilot 1.0: The Full Autonomous Stack for Oval Racing at High
Speeds [61.91756903900903]
インディ・オートノラティカル・チャレンジ (IAC) は、オープンホイールのレースカー上で独立して開発されたソフトウェアを使用して、前例のないスピードとヘッド・ツー・ヘッドのシナリオで競う9つの自律レースチームを集めた。
本稿では,チームTII EuroRacing (TII-ER) が使用するソフトウェアアーキテクチャについて述べる。静的障害物を避け,アクティブオーバーテイクを行い,75m/s (270 km/h) 以上の速度に達するために必要なモジュールをすべて網羅する。
総合的な結果と各モジュールのパフォーマンス、および、チームがそれぞれ2番目と3番目を置く楕円軌道上の競技の最初の2つのイベントで学んだ教訓について説明する。
論文 参考訳(メタデータ) (2023-10-27T12:52:34Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - Vehicle Dynamics Modeling for Autonomous Racing Using Gaussian Processes [0.0]
本稿では,自動走行における車両動力学の近似におけるGPモデルの適用性について,最も詳細な解析を行った。
人気のあるF1TENTHレーシングプラットフォームのための動的および拡張キネマティックモデルを構築した。
論文 参考訳(メタデータ) (2023-06-06T04:53:06Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - Race Driver Evaluation at a Driving Simulator using a physical Model and
a Machine Learning Approach [1.9395755884693817]
本稿では,ドライバー・イン・ザ・ループシミュレータ上でのレースドライバーの研究と評価を行う。
ドライバーを評価するために、総合的なパフォーマンススコア、車両軌道スコア、ハンドリングスコアを導入する。
ニューラルネットワークは2-5%のルート平均二乗誤差で正確で堅牢であり、最適化に基づく手法を置き換えることができることを示す。
論文 参考訳(メタデータ) (2022-01-27T07:32:32Z) - Autonomous Overtaking in Gran Turismo Sport Using Curriculum
Reinforcement Learning [39.757652701917166]
本研究では,自律オーバーテイク問題に対する新たな学習手法を提案する。
カーレースシミュレーターであるGran Turismo Sportによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-26T18:06:50Z) - Learning from Simulation, Racing in Reality [126.56346065780895]
ミニチュアレースカープラットフォーム上で自律的なレースを行うための強化学習ベースのソリューションを提案する。
シミュレーションで純粋に訓練されたポリシーは、実際のロボットのセットアップにうまく移行できることを示す。
論文 参考訳(メタデータ) (2020-11-26T14:58:49Z) - Super-Human Performance in Gran Turismo Sport Using Deep Reinforcement
Learning [39.719051858649216]
高忠実度物理カーシミュレーションを利用した自律走行車レース学習システムを提案する。
私たちは、異なるレースカーとトラックのリアルな物理シミュレーションで知られている世界主導の自動車シミュレータであるGran Turismo Sportにシステムをデプロイしました。
私たちのトレーニングされたポリシーは、組み込みAIによってこれまで達成された以上の自律的なレースパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-08-18T15:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。