論文の概要: Learning from All Vehicles
- arxiv url: http://arxiv.org/abs/2203.11934v1
- Date: Tue, 22 Mar 2022 17:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 14:03:08.690364
- Title: Learning from All Vehicles
- Title(参考訳): すべての車から学ぶ
- Authors: Dian Chen, Philipp Kr\"ahenb\"uhl
- Abstract要約: 我々は,エゴ車両から収集した経験から,その観察するすべての車両から,運転ポリシーを訓練するシステムを提案する。
このシステムは、他のエージェントの振る舞いを使って、追加のデータを集めることなく、より多様な運転シナリオを作成する。
我々の手法は2021年のCARLA Autonomous Driving Challengeで優勝した。
- 参考スコア(独自算出の注目度): 1.1947714868715738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a system to train driving policies from experiences
collected not just from the ego-vehicle, but all vehicles that it observes.
This system uses the behaviors of other agents to create more diverse driving
scenarios without collecting additional data. The main difficulty in learning
from other vehicles is that there is no sensor information. We use a set of
supervisory tasks to learn an intermediate representation that is invariant to
the viewpoint of the controlling vehicle. This not only provides a richer
signal at training time but also allows more complex reasoning during
inference. Learning how all vehicles drive helps predict their behavior at test
time and can avoid collisions. We evaluate this system in closed-loop driving
simulations. Our system outperforms all prior methods on the public CARLA
Leaderboard by a wide margin, improving driving score by 25 and route
completion rate by 24 points. Our method won the 2021 CARLA Autonomous Driving
challenge. Demo videos are available at https://dotchen.github.io/LAV/.
- Abstract(参考訳): 本稿では,エゴ車から収集した経験から,その観察するすべての車両から,運転方針を訓練するシステムを提案する。
このシステムは、他のエージェントの動作を利用して、追加のデータを集めることなく、より多様な運転シナリオを作成する。
他の車両から学ぶことの難しさは、センサー情報がないことである。
我々は,制御車両の観点で不変な中間表現を学習するために,一連の監督タスクを用いる。
これは訓練時によりリッチな信号を提供するだけでなく、推論中により複雑な推論を可能にする。
すべての車両の運転方法を学ぶことは、テスト時に行動を予測するのに役立ち、衝突を避けることができる。
本システムは閉ループ運転シミュレーションで評価する。
提案方式は,一般のcarlaリーダボードの従来の手法を大差で上回り,運転スコアを25点,経路完成率を24点改善した。
2021年のCARLA自動運転チャレンジで優勝した。
デモビデオはhttps://dotchen.github.io/LAV/で公開されている。
関連論文リスト
- End-To-End Training and Testing Gamification Framework to Learn Human Highway Driving [3.234017706225293]
本稿では,自律走行自動車のためのゲームベースのエンドツーエンド学習およびテストフレームワークを提案する。
人気ゲーム「グランドセフト・オートV」を使って高速道路の運転データを収集する。
エンド・ツー・エンドのアーキテクチャは、ゲーム画面の画像により車両を制御する操舵およびスロットル値を予測する。
論文 参考訳(メタデータ) (2024-04-16T18:51:58Z) - Scaling Is All You Need: Autonomous Driving with JAX-Accelerated Reinforcement Learning [9.25541290397848]
強化学習は、ビデオゲームのような複雑な領域で最高の人間よりも優れていることが実証されている。
自律運転のための大規模強化学習実験を行っている。
我々の最高の実行方針は、最先端の機械学習による自律運転のポリシーと比較して、運転進捗率を25%向上させながら、失敗率を64%削減します。
論文 参考訳(メタデータ) (2023-12-23T00:07:06Z) - SuperDriverAI: Towards Design and Implementation for End-to-End
Learning-based Autonomous Driving [0.0]
我々はSuperDriver AIというエンド・ツー・エンドの学習に基づく自律走行システムを提案する。
Deep Neural Networks (DNN)は、経験豊富な人間ドライバーから運転行動とポリシーを学び、運転操作を決定する。
我々は東京の1つの運転シナリオで150回の走行を収集し、現実世界の車両でSuperDriver AIのデモを見せた。
論文 参考訳(メタデータ) (2023-05-14T10:13:58Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Learning by Cheating [72.9701333689606]
この難解な学習問題を2段階に分解することで単純化できることを示す。
提案手法を用いて、視覚に基づく自律運転システムの訓練を行い、芸術の状況を大幅に上回っている。
提案手法は,従来のCARLAベンチマークのすべてのタスクにおける100%の成功率を初めて達成し,NoCrashベンチマークに新しい記録を樹立し,従来の技術と比較すると,屈折率を桁違いに低減する。
論文 参考訳(メタデータ) (2019-12-27T18:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。