論文の概要: Incorporating Voice Instructions in Model-Based Reinforcement Learning
for Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2206.10249v1
- Date: Tue, 21 Jun 2022 10:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 13:27:44.456573
- Title: Incorporating Voice Instructions in Model-Based Reinforcement Learning
for Self-Driving Cars
- Title(参考訳): モデルに基づく強化学習における音声指導の導入
- Authors: Mingze Wang, Ziyang Zhang, Grace Hui Yang
- Abstract要約: モデルに基づく深層強化学習に自然言語音声命令(NLI)を取り入れて自動運転車の訓練を行う。
その結果,NLIは学習プロセスの容易化とエージェントの学習速度の大幅な向上に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 12.716258111815312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach that supports natural language voice
instructions to guide deep reinforcement learning (DRL) algorithms when
training self-driving cars. DRL methods are popular approaches for autonomous
vehicle (AV) agents. However, most existing methods are sample- and
time-inefficient and lack a natural communication channel with the human
expert. In this paper, how new human drivers learn from human coaches motivates
us to study new ways of human-in-the-loop learning and a more natural and
approachable training interface for the agents. We propose incorporating
natural language voice instructions (NLI) in model-based deep reinforcement
learning to train self-driving cars. We evaluate the proposed method together
with a few state-of-the-art DRL methods in the CARLA simulator. The results
show that NLI can help ease the training process and significantly boost the
agents' learning speed.
- Abstract(参考訳): 本稿では,自律走行車の訓練において,自然言語音声による深部強化学習(DRL)アルゴリズムの指導を支援する新しい手法を提案する。
DRL法は、自動運転車(AV)エージェントの一般的なアプローチである。
しかし、既存の手法のほとんどはサンプルと時間非効率であり、人間との自然なコミュニケーションチャネルが欠如している。
本稿では,新しい人間ドライバーが人間のコーチからどのように学習するかを,人間-イン-ループ学習の新しい方法と,エージェントのより自然で親しみやすいトレーニングインターフェースについて研究する動機付けを行う。
モデルに基づく深層強化学習に自然言語音声命令(NLI)を取り入れて自動運転車の訓練を行う。
CARLAシミュレータにおけるいくつかの最先端DRL手法とともに提案手法の評価を行った。
その結果,NLIは学習プロセスの容易化とエージェントの学習速度の大幅な向上に役立つことがわかった。
関連論文リスト
- Optimizing Autonomous Driving for Safety: A Human-Centric Approach with LLM-Enhanced RLHF [2.499371729440073]
RLHF(Reinforcement Learning from Human Feedback)は、大規模言語モデル(LLM)で人気がある。
RLHFは通常、微調整のステップで適用され、直接の「推奨」を必要とする。
ニュージャージー州とニューヨーク市にある実生活テストベッドから収集したデータを用いて、我々のモデルを検証します。
論文 参考訳(メタデータ) (2024-06-06T20:10:34Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - HAIM-DRL: Enhanced Human-in-the-loop Reinforcement Learning for Safe and Efficient Autonomous Driving [2.807187711407621]
本稿では,AIメンターをベースとした深層強化学習(HAIM-DRL)フレームワークとして,Human-in-the-loop強化学習法を提案する。
私たちはまず、AIメンター(HAIM)と呼ばれる人間の知性をAIに効果的に注入する革新的な学習パラダイムを紹介します。
このパラダイムでは、人間の専門家がAIエージェントのメンターとして機能し、エージェントはトラフィックフローの障害を最小限に抑えるためにガイドされる。
論文 参考訳(メタデータ) (2024-01-06T08:30:14Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Efficient Reinforcement Learning for Autonomous Driving with
Parameterized Skills and Priors [16.87227671645374]
ASAP-RLは自律運転のための効率的な強化学習アルゴリズムである。
専門的なデモンストレーションを制御空間からスキル空間に変換するために,スキルパラメータ逆回復法を提案する。
本手法は, 単純かつスパースな報酬を付与した対話型高密度交通運転タスクにおいて, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T01:39:35Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Learning Personalized Discretionary Lane-Change Initiation for Fully
Autonomous Driving Based on Reinforcement Learning [11.54360350026252]
著者らは,完全自律走行車に対する選択車線変更開始の個別的戦術を学習する新しい方法を提案する。
交通状況や自動運転車の動作,車内ユーザのフィードバックから車線変更の開始方法を学ぶために,強化学習技術が使用されている。
論文 参考訳(メタデータ) (2020-10-29T06:21:23Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。