論文の概要: Learning hierarchical behavior and motion planning for autonomous
driving
- arxiv url: http://arxiv.org/abs/2005.03863v1
- Date: Fri, 8 May 2020 05:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 13:02:32.889941
- Title: Learning hierarchical behavior and motion planning for autonomous
driving
- Title(参考訳): 自律走行のための階層的行動と運動計画の学習
- Authors: Jingke Wang, Yue Wang, Dongkun Zhang, Yezhou Yang, Rong Xiong
- Abstract要約: 本稿では,階層的行動計画(HBMP)を導入し,学習ベースソリューションの動作を明示的にモデル化する。
我々は、古典的なサンプリングベースのモーションプランナを統合することで、HBMP問題を変換する。
さらに,シミュレーションプラットフォームと実環境をまたいだ入力感覚データの共有可能な表現を提案する。
- 参考スコア(独自算出の注目度): 32.78069835190924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based driving solution, a new branch for autonomous driving, is
expected to simplify the modeling of driving by learning the underlying
mechanisms from data. To improve the tactical decision-making for
learning-based driving solution, we introduce hierarchical behavior and motion
planning (HBMP) to explicitly model the behavior in learning-based solution.
Due to the coupled action space of behavior and motion, it is challenging to
solve HBMP problem using reinforcement learning (RL) for long-horizon driving
tasks. We transform HBMP problem by integrating a classical sampling-based
motion planner, of which the optimal cost is regarded as the rewards for
high-level behavior learning. As a result, this formulation reduces action
space and diversifies the rewards without losing the optimality of HBMP. In
addition, we propose a sharable representation for input sensory data across
simulation platforms and real-world environment, so that models trained in a
fast event-based simulator, SUMO, can be used to initialize and accelerate the
RL training in a dynamics based simulator, CARLA. Experimental results
demonstrate the effectiveness of the method. Besides, the model is successfully
transferred to the real-world, validating the generalization capability.
- Abstract(参考訳): 自動運転のための新しいブランチである学習ベースの運転ソリューションは、データから基盤となるメカニズムを学習することで、運転のモデリングを簡素化することが期待されている。
学習型運転ソリューションの戦術的意思決定を改善するため,階層的行動計画(HBMP)を導入し,学習型運転ソリューションの動作を明示的にモデル化する。
動作と動作の複合的な行動空間のため、長距離運転タスクにおいて強化学習(RL)を用いてHBMP問題を解くことは困難である。
我々は,古典的なサンプリングベースモーションプランナを統合することで,HBMP問題を変換し,その最適コストをハイレベルな行動学習の報酬とみなす。
その結果、この定式化は作用空間を減少させ、HBMPの最適性を失うことなく報酬を多様化する。
さらに,シミュレーションプラットフォームと実世界の環境にまたがる入力センサデータの共有表現を提案する。これにより,高速イベントベースシミュレータSUMOでトレーニングされたモデルを用いて,ダイナミックスベースシミュレータCARLAにおけるRLトレーニングを初期化および高速化することができる。
実験の結果,本手法の有効性が示された。
さらに、モデルは実世界へうまく転送され、一般化能力を検証する。
関連論文リスト
- Hierarchical and Decoupled BEV Perception Learning Framework for Autonomous Driving [52.808273563372126]
本稿では,基本認識モジュールとユーザフレンドリなグラフィカルインタフェースのライブラリの提供を目的とした,新しい階層的BEV知覚パラダイムを提案する。
我々は,大規模公開データセットと合理化開発プロセスを効果的に活用するために,Pretrain-Finetune戦略を実行している。
また、マルチモジュールラーニング(MML)アプローチを提案し、複数のモデルの相乗的かつ反復的な訓練により性能を向上させる。
論文 参考訳(メタデータ) (2024-07-17T11:17:20Z) - Towards Human-Like Driving: Active Inference in Autonomous Vehicle Control [0.5437298646956507]
本稿では,アクティブ推論の適用を通じて,自律走行車(AV)制御への新たなアプローチを提案する。
アクティブ推論(英: Active Inference)は、脳を予測機械として概念化する神経科学に由来する理論である。
提案手法は,深層学習と能動推論を統合してAVの側方制御を制御し,シミュレーション都市環境下で車線追従操作を行う。
論文 参考訳(メタデータ) (2024-07-10T14:08:27Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Using Implicit Behavior Cloning and Dynamic Movement Primitive to Facilitate Reinforcement Learning for Robot Motion Planning [3.16488279864227]
ロボットの運動計画のための強化学習(RL)は、遅い訓練速度と低い一般化性の観点から、低効率に苦しむ。
本稿では、暗黙的行動クローニング(IBC)と動的運動プリミティブ(DMP)を用いて、非政治的RLエージェントのトレーニング速度と一般化性を向上する新しいRLベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-29T19:46:09Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Spatiotemporal Costmap Inference for MPC via Deep Inverse Reinforcement
Learning [27.243603228431564]
目標条件付き時間報酬関数を学習するIRLRLアルゴリズムを提案する。
結果として生じるコストマップは、Model Predictive Controllers (MPC) によってタスクの実行に使用される。
論文 参考訳(メタデータ) (2022-01-17T17:36:29Z) - A Probabilistic Framework for Imitating Human Race Driver Behavior [31.524303667746643]
本稿では,運転行動モデリングのタスクを複数のモジュールに分割するモジュラーフレームワークProMoDを提案する。
確率的運動プリミティブを用いて大域的目標軌道分布を学習し、局所経路生成にウエイドを使用し、ニューラルネットワークにより対応する行動選択を行う。
シミュレーションカーレースセッティングの実験は、他の模倣学習アルゴリズムと比較して、模倣精度とロバスト性にかなりの利点がある。
論文 参考訳(メタデータ) (2020-01-22T20:06:38Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。