論文の概要: IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2411.04653v1
- Date: Thu, 07 Nov 2024 12:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:37:13.671109
- Title: IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving
- Title(参考訳): IGDrivSim: 自動運転におけるシミュレーションギャップのベンチマーク
- Authors: Clémence Grislain, Risto Vuorio, Cong Lu, Shimon Whiteson,
- Abstract要約: textbfIGDrivSimはWaymaxシミュレータ上に構築されたベンチマークである。
実験の結果,この認識ギャップは安全かつ効果的な運転行動の学習を妨げることが示された。
本研究は,模倣と強化学習を組み合わせることで,禁止行為に対する簡単な報奨を生かし,これらの失敗を効果的に軽減することを示す。
- 参考スコア(独自算出の注目度): 35.64960921334498
- License:
- Abstract: Developing autonomous vehicles that can navigate complex environments with human-level safety and efficiency is a central goal in self-driving research. A common approach to achieving this is imitation learning, where agents are trained to mimic human expert demonstrations collected from real-world driving scenarios. However, discrepancies between human perception and the self-driving car's sensors can introduce an \textit{imitation gap}, leading to imitation learning failures. In this work, we introduce \textbf{IGDrivSim}, a benchmark built on top of the Waymax simulator, designed to investigate the effects of the imitation gap in learning autonomous driving policy from human expert demonstrations. Our experiments show that this perception gap between human experts and self-driving agents can hinder the learning of safe and effective driving behaviors. We further show that combining imitation with reinforcement learning, using a simple penalty reward for prohibited behaviors, effectively mitigates these failures. Our code is open-sourced at: https://github.com/clemgris/IGDrivSim.git.
- Abstract(参考訳): 複雑な環境を人間レベルの安全と効率でナビゲートできる自動運転車の開発は、自動運転研究の中心的な目標である。
これを達成するための一般的なアプローチは模倣学習であり、エージェントは現実世界の運転シナリオから収集された人間の専門家によるデモンストレーションを模倣するために訓練される。
しかしながら、人間の知覚と自動運転車のセンサーの相違は、‘textit{imitation gap’を導入し、模倣学習の失敗につながる可能性がある。
本研究では,Waymaxシミュレータ上に構築されたベンチマークである \textbf{IGDrivSim} を紹介する。
我々の実験は、人間の専門家と自動運転エージェントの間のこの認識ギャップが、安全で効果的な運転行動の学習を妨げることを示している。
さらに,模倣と強化学習を組み合わせることで,禁止行為に対する簡単な報奨を生かし,これらの失敗を効果的に軽減することを示した。
私たちのコードは、https://github.com/clemgris/IGDrivSim.git.comでオープンソース化されています。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - A Language Agent for Autonomous Driving [31.359413767191608]
本稿では,人間のような知性を自律運転システムに統合するためのパラダイムシフトを提案する。
当社のアプローチはAgent-Driverと呼ばれ,汎用ツールライブラリを導入して,従来の自律走行パイプラインを変革する。
LLM(Large Language Models)によって駆動されるエージェントドライブには直感的な常識と堅牢な推論能力が備わっています。
論文 参考訳(メタデータ) (2023-11-17T18:59:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Adversarial Deep Reinforcement Learning for Trustworthy Autonomous
Driving Policies [5.254093731341154]
我々は、自動運転車の深い強化学習ポリシーの改善を支援するために、敵対的な例が利用できることを示した。
高忠実度都市運転シミュレーション環境と視覚ベース運転エージェントを用いて、敵プレイヤーを用いて再訓練した自動運転車が、その運転ポリシーの性能を著しく向上させることを実証した。
論文 参考訳(メタデータ) (2021-12-22T15:00:16Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。