論文の概要: Learning to drive from a world on rails
- arxiv url: http://arxiv.org/abs/2105.00636v1
- Date: Mon, 3 May 2021 05:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:09:51.310621
- Title: Learning to drive from a world on rails
- Title(参考訳): レール上の世界から運転を学ぶ
- Authors: Dian Chen, Vladlen Koltun, Philipp Kr\"ahenb\"uhl
- Abstract要約: モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
- 参考スコア(独自算出の注目度): 78.28647825246472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We learn an interactive vision-based driving policy from pre-recorded driving
logs via a model-based approach. A forward model of the world supervises a
driving policy that predicts the outcome of any potential driving trajectory.
To support learning from pre-recorded logs, we assume that the world is on
rails, meaning neither the agent nor its actions influence the environment.
This assumption greatly simplifies the learning problem, factorizing the
dynamics into a nonreactive world model and a low-dimensional and compact
forward model of the ego-vehicle. Our approach computes action-values for each
training trajectory using a tabular dynamic-programming evaluation of the
Bellman equations; these action-values in turn supervise the final vision-based
driving policy. Despite the world-on-rails assumption, the final driving policy
acts well in a dynamic and reactive world. Our method ranks first on the CARLA
leaderboard, attaining a 25% higher driving score while using 40 times less
data. Our method is also an order of magnitude more sample-efficient than
state-of-the-art model-free reinforcement learning techniques on navigational
tasks in the ProcGen benchmark.
- Abstract(参考訳): モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
事前に記録されたログからの学習を支援するため、世界はレール上にあり、エージェントもアクションも環境に影響を与えないと仮定する。
この仮定は学習問題を大いに単純化し、ダイナミクスを非反応性の世界モデルとエゴ車両の低次元かつコンパクトな前方モデルに分解する。
本稿では,ベルマン方程式の表型動的プログラミング評価を用いて,各学習軌跡に対する動作値を計算する。
レールの仮定にもかかわらず、最終的な運転方針は動的でリアクティブな世界でうまく機能する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
また,本手法は,procgenベンチマークのナビゲーションタスクにおいて,最先端のモデルフリー強化学習技術よりもサンプル効率が桁違いに向上する。
関連論文リスト
- DrivingDojo Dataset: Advancing Interactive and Knowledge-Enriched Driving World Model [65.43473733967038]
私たちは、複雑な駆動ダイナミクスを備えたインタラクティブな世界モデルのトレーニング用に作られた最初のデータセットであるDrivingDojoを紹介します。
私たちのデータセットには、完全な運転操作、多様なマルチエージェント・インタープレイ、豊富なオープンワールド運転知識を備えたビデオクリップが含まれています。
論文 参考訳(メタデータ) (2024-10-14T17:19:23Z) - Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Integration of Reinforcement Learning Based Behavior Planning With
Sampling Based Motion Planning for Automated Driving [0.5801044612920815]
本研究では,高度行動計画のための訓練された深層強化学習ポリシーを用いる方法を提案する。
私たちの知る限りでは、この研究は、この方法で深層強化学習を適用した最初のものである。
論文 参考訳(メタデータ) (2023-04-17T13:49:55Z) - Hierarchical Model-Based Imitation Learning for Planning in Autonomous
Driving [47.59287162318435]
都市密集型自動運転の課題に対するモデルベース生成逆相似学習(MGAIL)の大規模適用を実証した。
我々は、任意の目標経路への一般化を可能にする階層モデルを用いて標準MGAILを拡張し、シミュレーションされた対話エージェントを用いたクローズドループ評価フレームワークを用いて性能を測定する。
私たちは、サンフランシスコで10万マイル以上を走行する実車から収集した専門家の軌跡からのポリシーを訓練し、ゼロショット環境でも堅牢にナビゲートできるステアブルなポリシーを実証します。
論文 参考訳(メタデータ) (2022-10-18T02:15:34Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Spatiotemporal Costmap Inference for MPC via Deep Inverse Reinforcement
Learning [27.243603228431564]
目標条件付き時間報酬関数を学習するIRLRLアルゴリズムを提案する。
結果として生じるコストマップは、Model Predictive Controllers (MPC) によってタスクの実行に使用される。
論文 参考訳(メタデータ) (2022-01-17T17:36:29Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。