論文の概要: Learning by Cheating
- arxiv url: http://arxiv.org/abs/1912.12294v1
- Date: Fri, 27 Dec 2019 18:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 23:05:37.937924
- Title: Learning by Cheating
- Title(参考訳): チーティングによる学習
- Authors: Dian Chen and Brady Zhou and Vladlen Koltun and Philipp Kr\"ahenb\"uhl
- Abstract要約: この難解な学習問題を2段階に分解することで単純化できることを示す。
提案手法を用いて、視覚に基づく自律運転システムの訓練を行い、芸術の状況を大幅に上回っている。
提案手法は,従来のCARLAベンチマークのすべてのタスクにおける100%の成功率を初めて達成し,NoCrashベンチマークに新しい記録を樹立し,従来の技術と比較すると,屈折率を桁違いに低減する。
- 参考スコア(独自算出の注目度): 72.9701333689606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based urban driving is hard. The autonomous system needs to learn to
perceive the world and act in it. We show that this challenging learning
problem can be simplified by decomposing it into two stages. We first train an
agent that has access to privileged information. This privileged agent cheats
by observing the ground-truth layout of the environment and the positions of
all traffic participants. In the second stage, the privileged agent acts as a
teacher that trains a purely vision-based sensorimotor agent. The resulting
sensorimotor agent does not have access to any privileged information and does
not cheat. This two-stage training procedure is counter-intuitive at first, but
has a number of important advantages that we analyze and empirically
demonstrate. We use the presented approach to train a vision-based autonomous
driving system that substantially outperforms the state of the art on the CARLA
benchmark and the recent NoCrash benchmark. Our approach achieves, for the
first time, 100% success rate on all tasks in the original CARLA benchmark,
sets a new record on the NoCrash benchmark, and reduces the frequency of
infractions by an order of magnitude compared to the prior state of the art.
For the video that summarizes this work, see https://youtu.be/u9ZCxxD-UUw
- Abstract(参考訳): ビジョンベースの都市運転は難しい。
自律システムは世界を知覚し行動するために学ぶ必要があります。
この難解な学習問題を2段階に分解することで単純化できることを示す。
まず、特権のある情報にアクセスするエージェントを訓練します。
この特権的なエージェントは、環境の接地配置と全ての交通参加者の位置を観察することで不正を犯す。
第2段階では、特権エージェントは、純粋に視覚に基づく感覚運動エージェントを訓練する教師として機能する。
その結果得られるsensorimotorエージェントは、特権情報にアクセスできず、浮気もしない。
この2段階のトレーニング手順は最初は直感に反するが、我々が分析し実証的に示す重要な利点がいくつかある。
提案手法は,carlaベンチマークや先日のnocrashベンチマークの最先端技術に匹敵するビジョンベースの自律運転システムをトレーニングするために使用する。
提案手法は,従来のCARLAベンチマークのすべてのタスクにおける100%の成功率を初めて達成し,NoCrashベンチマークに新しい記録を樹立し,従来の技術と比較すると,屈折率を桁違いに低減する。
この作品を要約したビデオはhttps://youtu.be/u9zcxxd-uuwを参照。
関連論文リスト
- Learn 2 Rage: Experiencing The Emotional Roller Coaster That Is Reinforcement Learning [5.962453678471195]
この研究は、AIcrowdが主催するLearn To Race Autonomous Racing Virtual Challenge 2022で優勝したチームの実験とソリューションの概要を示します。
Learn-to-Raceコンペティションの目的は、自動運転の安全性のメリットを達成することに焦点を当て、自動運転技術の境界を推し進めることである。
SAC(Soft Actor Critic)の変種の実装に焦点をあてた。
私たちのゴールは、視覚的特徴と幾何学的特徴のみからレースカーの非自明な制御を学習し、ピクセルを直接制御アクションにマッピングすることでした。
論文 参考訳(メタデータ) (2024-10-24T06:16:52Z) - Data and Knowledge for Overtaking Scenarios in Autonomous Driving [0.0]
オーバーテイク・エクササイズは、運転において最も重要な行動の1つである。
文献で利用できる作業量にもかかわらず、ほんの少しの操作しか処理できない。
この研究は、この領域に寄与し、新たな合成データセットを提示する。
論文 参考訳(メタデータ) (2023-05-30T21:27:05Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Scaling Vision-based End-to-End Driving with Multi-View Attention
Learning [7.14967754486195]
本稿では,人間にインスパイアされたHFOVを誘導バイアスとして用いて高分解能画像を処理し,適切な注意機構を組み込むことにより,CILRSを改善するCIL++を提案する。
我々は,車載信号のみによって制御され,条件付き模倣学習によって訓練された強力な視覚ベースの純粋エンドツーエンド駆動ベースラインとして,CILRSをCIL++に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-02-07T02:14:45Z) - Learning from All Vehicles [1.1947714868715738]
我々は,エゴ車両から収集した経験から,その観察するすべての車両から,運転ポリシーを訓練するシステムを提案する。
このシステムは、他のエージェントの振る舞いを使って、追加のデータを集めることなく、より多様な運転シナリオを作成する。
我々の手法は2021年のCARLA Autonomous Driving Challengeで優勝した。
論文 参考訳(メタデータ) (2022-03-22T17:59:04Z) - YOLOP: You Only Look Once for Panoptic Driving Perception [21.802146960999394]
本稿では,交通物体検出,乾燥領域分割,車線検出を同時に行うパノプティカル駆動認識ネットワーク(YOLOP)を提案する。
特徴抽出のための1つのエンコーダと、特定のタスクを処理する3つのデコーダで構成されている。
私たちのモデルは、BDD100Kデータセットで非常によく機能し、正確性とスピードの観点から、3つのタスクすべてで最先端の処理を実現しています。
論文 参考訳(メタデータ) (2021-08-25T14:19:42Z) - End-to-End Urban Driving by Imitating a Reinforcement Learning Coach [148.2683592850329]
人間は良いドライバーだが、エンドツーエンドのアルゴリズムにとって良いコーチではない。
我々は、鳥の目視画像を連続的な低レベル行動にマッピングする強化学習専門家を訓練する。
我々の強化学習コーチによって監督され、単眼カメラ入力のベースラインエンドツーエンドエージェントは、専門家レベルのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-18T17:36:51Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。