論文の概要: Autonomous Algorithm for Training Autonomous Vehicles with Minimal Human Intervention
- arxiv url: http://arxiv.org/abs/2405.13345v2
- Date: Thu, 16 Jan 2025 02:37:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:07:15.196443
- Title: Autonomous Algorithm for Training Autonomous Vehicles with Minimal Human Intervention
- Title(参考訳): 最小限の人間介入による自律走行車両の訓練アルゴリズム
- Authors: Sang-Hyun Lee, Daehyeok Kwon, Seung-Woo Seo,
- Abstract要約: 強化学習(RL)アルゴリズムはシミュレーション運転環境において顕著な結果を示した。
RLアルゴリズムは、現実の自動運転車を直接訓練することで、忠実さギャップ問題を回避できる。
本稿では,人間による介入を最小限に抑えた自動運転車の訓練を可能にするアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.95571506577409
- License:
- Abstract: Recent reinforcement learning (RL) algorithms have demonstrated impressive results in simulated driving environments. However, autonomous vehicles trained in simulation often struggle to work well in the real world due to the fidelity gap between simulated and real-world environments. While directly training real-world autonomous vehicles with RL algorithms is a promising approach to bypass the fidelity gap problem, it presents several challenges. One critical yet often overlooked challenge is the need to reset a driving environment between every episode. This reset process demands significant human intervention, leading to poor training efficiency in the real world. In this paper, we introduce a novel autonomous algorithm that enables off-the-shelf RL algorithms to train autonomous vehicles with minimal human intervention. Our algorithm reduces unnecessary human intervention by aborting episodes to prevent unsafe states and identifying informative initial states for subsequent episodes. The key idea behind identifying informative initial states is to estimate the expected amount of information that can be obtained from under-explored but reachable states. Our algorithm also revisits rule-based autonomous driving algorithms and highlights their benefits in safely returning an autonomous vehicle to initial states. To evaluate how much human intervention is required during training, we implement challenging urban driving tasks that require an autonomous vehicle to reset to initial states on its own. The experimental results show that our autonomous algorithm is task-agnostic and achieves competitive driving performance with much less human intervention than baselines.
- Abstract(参考訳): 近年の強化学習 (RL) アルゴリズムは, シミュレーション運転環境において顕著な結果を示した。
しかし、シミュレーションで訓練された自動運転車は、シミュレーションされた環境と実世界の環境の間の忠実さのギャップのために、現実世界でうまく機能するのに苦労することが多い。
RLアルゴリズムで現実の自動運転車を直接訓練することは、忠実度ギャップの問題を回避するための有望なアプローチであるが、いくつかの課題を提示している。
批判的だが見落とされがちな課題の1つは、各エピソード間で運転環境をリセットする必要があることである。
このリセットプロセスは人間の介入を必要とするため、実世界でのトレーニング効率は低下する。
本稿では,人間による介入を最小限に抑えた自動運転車の訓練を可能にする,新しい自律アルゴリズムを提案する。
我々のアルゴリズムは、不安全状態の防止とその後のエピソードに対する情報的初期状態の特定のために、エピソードの中止による不必要な人間の介入を減らす。
情報的初期状態を特定するための鍵となる考え方は、探索されていないが到達可能な状態から得られる期待される情報の量を推定することである。
当社のアルゴリズムはルールベースの自動運転アルゴリズムを再検討し、自動運転車を初期状態に安全に戻す際のメリットを強調しています。
訓練中にどの程度の人的介入が必要かを評価するため、自動運転車が初期状態にリセットする必要がある都市部での運転に挑戦するタスクを実装した。
実験結果から,我々の自律型アルゴリズムはタスク非依存であり,ベースラインよりも人間の介入が少なく,競争力のある運転性能を実現することが示された。
関連論文リスト
- Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Comparative Study of Q-Learning and NeuroEvolution of Augmenting
Topologies for Self Driving Agents [0.0]
自動運転車は世界中の自動車事故の数を削減できると期待されている。
進化的アルゴリズムと人工ニューラルネットワークを組み合わせた強化学習アルゴリズムとNeuroEvolution of Augment Topologies(NEAT)に注目して、モデルエージェントをトレーニングして、与えられたパス上での運転方法を学ぶ。
論文 参考訳(メタデータ) (2022-09-19T13:34:18Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Model-based Decision Making with Imagination for Autonomous Parking [50.41076449007115]
提案アルゴリズムは,駐車前に結果を予測するための想像モデル,高速探索ランダムツリー(RRT)の改良,経路平滑化モジュールの3つの部分から構成される。
われわれのアルゴリズムは、実際のキネマティックな車両モデルに基づいており、実際の自動運転車にアルゴリズムを適用するのにより適している。
アルゴリズムの有効性を評価するため,3つの異なる駐車シナリオにおいて,従来のRTとアルゴリズムを比較した。
論文 参考訳(メタデータ) (2021-08-25T18:24:34Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Deep Reinforcement Learning for Human-Like Driving Policies in Collision
Avoidance Tasks of Self-Driving Cars [1.160208922584163]
自動運転ポリシーを生成するために,モデルフリーで深層強化学習手法を導入する。
本研究では,2車線道路における静的障害物回避タスクをシミュレーションで検討する。
このアプローチが人間ライクな運転ポリシーにつながることを実証します。
論文 参考訳(メタデータ) (2020-06-07T18:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。