論文の概要: Scaling Is All You Need: Autonomous Driving with JAX-Accelerated Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2312.15122v4
- Date: Tue, 05 Nov 2024 00:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:57:00.763154
- Title: Scaling Is All You Need: Autonomous Driving with JAX-Accelerated Reinforcement Learning
- Title(参考訳): スケーリングが必要なのはすべて - JAX-Accelerated Reinforcement Learningによる自律運転
- Authors: Moritz Harmel, Anubhav Paras, Andreas Pasternak, Nicholas Roy, Gary Linscott,
- Abstract要約: 強化学習は、ビデオゲームのような複雑な領域で最高の人間よりも優れていることが実証されている。
自律運転のための大規模強化学習実験を行っている。
我々の最高の実行方針は、最先端の機械学習による自律運転のポリシーと比較して、運転進捗率を25%向上させながら、失敗率を64%削減します。
- 参考スコア(独自算出の注目度): 9.25541290397848
- License:
- Abstract: Reinforcement learning has been demonstrated to outperform even the best humans in complex domains like video games. However, running reinforcement learning experiments on the required scale for autonomous driving is extremely difficult. Building a large scale reinforcement learning system and distributing it across many GPUs is challenging. Gathering experience during training on real world vehicles is prohibitive from a safety and scalability perspective. Therefore, an efficient and realistic driving simulator is required that uses a large amount of data from real-world driving. We bring these capabilities together and conduct large-scale reinforcement learning experiments for autonomous driving. We demonstrate that our policy performance improves with increasing scale. Our best performing policy reduces the failure rate by 64% while improving the rate of driving progress by 25% compared to the policies produced by state-of-the-art machine learning for autonomous driving.
- Abstract(参考訳): 強化学習は、ビデオゲームのような複雑な領域で最高の人間よりも優れていることが実証されている。
しかし、自動運転に必要なスケールでの強化学習実験は極めて困難である。
大規模な強化学習システムを構築し、多くのGPUに分散することは難しい。
現実世界の車両でのトレーニング中の収集経験は、安全性とスケーラビリティの観点からは禁じられている。
そのため,実世界の運転から大量のデータを利用する,効率的で現実的な運転シミュレータが求められている。
これらの機能をまとめて,自律運転のための大規模強化学習実験を行う。
当社の政策性能は大規模化とともに向上していることを実証する。
我々の最高の実行方針は、最先端の機械学習による自律運転のポリシーと比較して、運転進捗率を25%向上させながら、失敗率を64%削減します。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Autonomous Driving with Deep Reinforcement Learning in CARLA Simulation [0.0]
我々は、Deep Q-Learningを使用して、自動運転車が他の車両を避けながら、最高速度で車線を維持できるポリシーを学ぶ。
その後、我々はCARLAシミュレーション環境を使用して、新たに取得したポリシーをテストし、検証した。
論文 参考訳(メタデータ) (2023-06-20T00:54:20Z) - Efficient Reinforcement Learning for Autonomous Driving with
Parameterized Skills and Priors [16.87227671645374]
ASAP-RLは自律運転のための効率的な強化学習アルゴリズムである。
専門的なデモンストレーションを制御空間からスキル空間に変換するために,スキルパラメータ逆回復法を提案する。
本手法は, 単純かつスパースな報酬を付与した対話型高密度交通運転タスクにおいて, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T01:39:35Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Adversarial Deep Reinforcement Learning for Trustworthy Autonomous
Driving Policies [5.254093731341154]
我々は、自動運転車の深い強化学習ポリシーの改善を支援するために、敵対的な例が利用できることを示した。
高忠実度都市運転シミュレーション環境と視覚ベース運転エージェントを用いて、敵プレイヤーを用いて再訓練した自動運転車が、その運転ポリシーの性能を著しく向上させることを実証した。
論文 参考訳(メタデータ) (2021-12-22T15:00:16Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。