論文の概要: DDPG car-following model with real-world human driving experience in
CARLA
- arxiv url: http://arxiv.org/abs/2112.14602v1
- Date: Wed, 29 Dec 2021 15:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 18:10:52.858222
- Title: DDPG car-following model with real-world human driving experience in
CARLA
- Title(参考訳): carlaにおける実世界運転体験を用いたddpg車追従モデル
- Authors: Dianzhao Li and Ostap Okhrin
- Abstract要約: そこで本研究では,現実世界の人間の運転から学習し,純粋なDRLエージェントよりも優れた性能を実現する2段階のDeep Reinforcement Learning(DRL)手法を提案する。
評価のために、提案した2段DRLエージェントと純粋なDRLエージェントを比較するために、異なる実世界の運転シナリオを設計した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the autonomous driving field, the fusion of human knowledge into Deep
Reinforcement Learning (DRL) is often based on the human demonstration recorded
in the simulated environment. This limits the generalization and the
feasibility of application in real-world traffic. We proposed a two-stage DRL
method, that learns from real-world human driving to achieve performance that
is superior to the pure DRL agent. Training a DRL agent is done within a
framework for CARLA with Robot Operating System (ROS). For evaluation, we
designed different real-world driving scenarios to compare the proposed
two-stage DRL agent with the pure DRL agent. After extracting the 'good'
behavior from the human driver, such as anticipation in a signalized
intersection, the agent becomes more efficient and drives safer, which makes
this autonomous agent more adapt to Human-Robot Interaction (HRI) traffic.
- Abstract(参考訳): 自律運転分野では、人間の知識を深層強化学習(DRL)に融合させることは、シミュレーション環境で記録された人間の実演に基づいていることが多い。
これにより、現実世界のトラフィックにおけるアプリケーションの一般化と実現性が制限される。
そこで本研究では,実世界の人間の運転から学習し,純粋なDRLエージェントよりも優れた性能を実現するための2段階DRL手法を提案する。
DRLエージェントのトレーニングは、ロボットオペレーティングシステム(ROS)を使用したCARLAのフレームワーク内で行われる。
評価のために、提案した2段DRLエージェントと純粋なDRLエージェントを比較するために、異なる実世界の運転シナリオを設計した。
信号交差点での予測などの「良い」動作を人間の運転者から抽出した後、エージェントはより効率的になり、より安全に運転し、この自律エージェントは人間-ロボットインタラクション(HRI)のトラフィックに適応する。
関連論文リスト
- DR-MPC: Deep Residual Model Predictive Control for Real-world Social Navigation [20.285659649785224]
Deep Residual Model Predictive Control (DR-MPC)は、ロボットが現実世界の群衆のナビゲーションデータからDRLを安全に実行できるようにする方法である。
DR-MPCは、MPCベースの経路追跡を持ち、徐々に人間とより効果的に対話することを学ぶ。
シミュレーションでは,DR-MPCは従来のDRLモデルや残留DRLモデルなど,従来よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-10-14T15:56:43Z) - Optimizing Autonomous Driving for Safety: A Human-Centric Approach with LLM-Enhanced RLHF [2.499371729440073]
RLHF(Reinforcement Learning from Human Feedback)は、大規模言語モデル(LLM)で人気がある。
RLHFは通常、微調整のステップで適用され、直接の「推奨」を必要とする。
ニュージャージー州とニューヨーク市にある実生活テストベッドから収集したデータを用いて、我々のモデルを検証します。
論文 参考訳(メタデータ) (2024-06-06T20:10:34Z) - In-context Learning for Automated Driving Scenarios [15.325910109153616]
現在の強化学習(RL)ベースの自動運転(AD)エージェントにおける重要な課題の1つは、柔軟で正確で人間らしい振る舞いをコスト効率よく達成することである。
本稿では,LL報酬関数を人間中心で直感的かつ効果的に最適化するために,LLM(Large Language Models)を用いた革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-07T09:04:52Z) - Human-compatible driving partners through data-regularized self-play reinforcement learning [3.9682126792844583]
HR-PPO(Human-Regularized PPO)は、エージェントが人間の参照ポリシーから逸脱する小さなペナルティで自己プレイを通じて訓練されるマルチエージェントアルゴリズムである。
その結果,HR-PPOは93%,オフロード率3.5%,衝突率3%の目標達成に極めて有効であることがわかった。
論文 参考訳(メタデータ) (2024-03-28T17:56:56Z) - HAIM-DRL: Enhanced Human-in-the-loop Reinforcement Learning for Safe and Efficient Autonomous Driving [2.807187711407621]
本稿では,AIメンターをベースとした深層強化学習(HAIM-DRL)フレームワークとして,Human-in-the-loop強化学習法を提案する。
私たちはまず、AIメンター(HAIM)と呼ばれる人間の知性をAIに効果的に注入する革新的な学習パラダイムを紹介します。
このパラダイムでは、人間の専門家がAIエージェントのメンターとして機能し、エージェントはトラフィックフローの障害を最小限に抑えるためにガイドされる。
論文 参考訳(メタデータ) (2024-01-06T08:30:14Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Studying the Impact of Semi-Cooperative Drivers on Overall Highway Flow [76.38515853201116]
半協調行動は、人間ドライバーの本質的な性質であり、自律運転には考慮すべきである。
新たな自律型プランナーは、社会的に準拠した軌道を生成するために、人間のドライバーの社会的価値指向(SVO)を考慮することができる。
エージェントが反復的最適応答のゲーム理論バージョンをデプロイする暗黙的な半協調運転について検討する。
論文 参考訳(メタデータ) (2023-04-23T16:01:36Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - DriverGym: Democratising Reinforcement Learning for Autonomous Driving [75.91049219123899]
本稿では,自律運転のための強化学習アルゴリズムを開発するオープンソース環境であるDeadGymを提案する。
DriverGymは1000時間以上の専門家ログデータへのアクセスを提供し、リアクティブおよびデータ駆動エージェントの動作をサポートする。
広範かつフレキシブルなクローズループ評価プロトコルを用いて,実世界のデータ上でRLポリシーの性能を容易に検証できる。
論文 参考訳(メタデータ) (2021-11-12T11:47:08Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。