論文の概要: Integration of Reinforcement Learning Based Behavior Planning With
Sampling Based Motion Planning for Automated Driving
- arxiv url: http://arxiv.org/abs/2304.08280v1
- Date: Mon, 17 Apr 2023 13:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 14:58:23.384918
- Title: Integration of Reinforcement Learning Based Behavior Planning With
Sampling Based Motion Planning for Automated Driving
- Title(参考訳): 自動走行のための強化学習に基づく行動計画とサンプリングに基づく行動計画の統合
- Authors: Marvin Klimke, Benjamin V\"olz, Michael Buchholz
- Abstract要約: 本研究では,高度行動計画のための訓練された深層強化学習ポリシーを用いる方法を提案する。
私たちの知る限りでは、この研究は、この方法で深層強化学習を適用した最初のものである。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning has received high research interest for developing
planning approaches in automated driving. Most prior works consider the
end-to-end planning task that yields direct control commands and rarely deploy
their algorithm to real vehicles. In this work, we propose a method to employ a
trained deep reinforcement learning policy for dedicated high-level behavior
planning. By populating an abstract objective interface, established motion
planning algorithms can be leveraged, which derive smooth and drivable
trajectories. Given the current environment model, we propose to use a built-in
simulator to predict the traffic scene for a given horizon into the future. The
behavior of automated vehicles in mixed traffic is determined by querying the
learned policy. To the best of our knowledge, this work is the first to apply
deep reinforcement learning in this manner, and as such lacks a
state-of-the-art benchmark. Thus, we validate the proposed approach by
comparing an idealistic single-shot plan with cyclic replanning through the
learned policy. Experiments with a real testing vehicle on proving grounds
demonstrate the potential of our approach to shrink the simulation to real
world gap of deep reinforcement learning based planning approaches. Additional
simulative analyses reveal that more complex multi-agent maneuvers can be
managed by employing the cycling replanning approach.
- Abstract(参考訳): 強化学習は自動運転の計画手法開発において高い研究関心を集めている。
これまでのほとんどの作業では、直接制御コマンドを出力し、アルゴリズムを実際の車両にデプロイすることは滅多にない、エンドツーエンドの計画タスクが検討されている。
本研究では,訓練された深層強化学習政策を高レベル行動計画に活用する手法を提案する。
抽象的な客観的インタフェースを投入することにより、確立された動き計画アルゴリズムを活用でき、滑らかで導出可能な軌道を導出する。
現状の環境モデルを考えると,将来的な交通状況を予測するために,シミュレータを組み込んで利用することを提案する。
混合交通における自動運転車の挙動は、学習したポリシーに照会することによって決定される。
我々の知る限りでは、この研究は、この方法でディープ強化学習を適用した最初のものであり、最先端のベンチマークが欠けている。
そこで本研究では,学習方針を通して,理想主義的な単発計画と循環的再計画を比較することにより,提案手法を検証する。
実地試験車両を用いた実験では,シミュレーションを深層強化学習に基づく計画手法の現実的ギャップに縮小する手法の可能性を示した。
さらなるシミュレーション分析により、より複雑なマルチエージェント操作は、サイクリング再計画アプローチを用いて管理できることが判明した。
関連論文リスト
- HOPE: A Reinforcement Learning-based Hybrid Policy Path Planner for Diverse Parking Scenarios [24.25807334214834]
多様な複雑な駐車シナリオを扱うために,Hybrid pOlicy Path PlannEr(HOPE)を導入する。
HOPEは強化学習エージェントをReeds-Shepp曲線に統合し、多様なシナリオにまたがる効果的な計画を可能にする。
本稿では,空間および障害物分布に基づく駐車シナリオの難易度を分類するための基準を提案する。
論文 参考訳(メタデータ) (2024-05-31T02:17:51Z) - Speeding Up Path Planning via Reinforcement Learning in MCTS for Automated Parking [3.750010944080163]
本稿では,モンテカルロ木探索を用いた強化学習パイプラインを提案する。
状態の価値を反復的に学習することにより、与えられた状態に対する値推定器とポリシー生成器をモデル化することができる。
論文 参考訳(メタデータ) (2024-03-25T22:21:23Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Experience-Based Heuristic Search: Robust Motion Planning with Deep
Q-Learning [0.0]
本稿では,Deep Q-Networkの形式でのエクスペリエンスを,探索アルゴリズムの最適ポリシとして統合する方法について述べる。
本手法は、自動運転車分野における強化学習に基づく計画の適用性について、さらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-02-05T12:08:11Z) - Affordance-based Reinforcement Learning for Urban Driving [3.507764811554557]
経路点と低次元視覚表現を用いた最適制御ポリシーを学習するための深層強化学習フレームワークを提案する。
スクラッチから訓練されたエージェントは、車線追従のタスクを学習し、区間間を走り回り、密集した交通状況でも他のアクターや信号機の前で立ち止まることを実証する。
論文 参考訳(メタデータ) (2021-01-15T05:21:25Z) - Planning on the fast lane: Learning to interact using attention
mechanisms in path integral inverse reinforcement learning [20.435909887810165]
自動走行のための汎用軌道計画アルゴリズムは複雑な報酬関数を利用する。
深層学習アプローチは局所的な状況依存報酬関数の予測に成功している。
低次元の文脈ベクトルを生成するためにポリシーアテンション機構を用いるニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-11T15:25:44Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。