論文の概要: PILOT: Efficient Planning by Imitation Learning and Optimisation for
Safe Autonomous Driving
- arxiv url: http://arxiv.org/abs/2011.00509v3
- Date: Fri, 30 Jul 2021 16:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:54:51.251584
- Title: PILOT: Efficient Planning by Imitation Learning and Optimisation for
Safe Autonomous Driving
- Title(参考訳): PILOT: シミュレーション学習による効率的な計画と安全な自動運転の最適化
- Authors: Henry Pulver, Francisco Eiras, Ludovico Carozza, Majd Hawasly, Stefano
V. Albrecht and Subramanian Ramamoorthy
- Abstract要約: 計画品質、安全性、効率の適切なバランスは、自動運転の大きな課題である。
我々は、模倣ニューラルネットワークと効率的なオプティマイザを組み合わせた計画フレームワークであるPILOTを提案する。
PILOTは,計画品質を犠牲にすることなく,それを模倣する専門家と比較して,ランタイムの7倍の削減を実現している。
- 参考スコア(独自算出の注目度): 16.151534376618034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving a proper balance between planning quality, safety and efficiency is
a major challenge for autonomous driving. Optimisation-based motion planners
are capable of producing safe, smooth and comfortable plans, but often at the
cost of runtime efficiency. On the other hand, naively deploying trajectories
produced by efficient-to-run deep imitation learning approaches might risk
compromising safety. In this paper, we present PILOT -- a planning framework
that comprises an imitation neural network followed by an efficient optimiser
that actively rectifies the network's plan, guaranteeing fulfilment of safety
and comfort requirements. The objective of the efficient optimiser is the same
as the objective of an expensive-to-run optimisation-based planning system that
the neural network is trained offline to imitate. This efficient optimiser
provides a key layer of online protection from learning failures or deficiency
in out-of-distribution situations that might compromise safety or comfort.
Using a state-of-the-art, runtime-intensive optimisation-based method as the
expert, we demonstrate in simulated autonomous driving experiments in CARLA
that PILOT achieves a seven-fold reduction in runtime when compared to the
expert it imitates without sacrificing planning quality.
- Abstract(参考訳): 計画品質、安全性、効率の適切なバランスを達成することは、自動運転の大きな課題である。
最適化ベースのモーションプランナーは安全でスムースで快適なプランを生成することができるが、実行時の効率が犠牲になることが多い。
一方、効率的な深層模倣学習アプローチによって生み出した軌道をナビゲート的に展開することは、安全性を損なう可能性がある。
本稿では,ニューラルネットワークの模倣と,ネットワークの計画を積極的に修正し,安全性と快適さの満足度を保証する効率的なオプティマイザからなる計画フレームワークであるpilotを提案する。
効率的なオプティマイザーの目的は、ニューラルネットワークがオフラインで模倣するように訓練される、コストの高い最適化ベースの計画システムと同じである。
この効率的なオプティマイザーは、安全性や快適を損なう可能性のある分散状況における学習障害や不足から、オンライン保護の重要な層を提供します。
CARLAのシミュレーション自動運転実験では、PILOTが計画品質を犠牲にすることなく模倣する専門家と比較して、実行時の7倍の削減を実現していることを示す。
関連論文リスト
- TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled
Prescriptive Maintenance Framework [62.73424880653293]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Learning-Initialized Trajectory Planning in Unknown Environments [4.2960463890487555]
未知の環境での自律飛行の計画には、空間軌道と時間軌道の両方を正確に計画する必要がある。
本稿ではニューラルdトラジェクトリ・プランナーを用いて最適化を導く新しい手法を提案する。
遅延計画に対する耐性を持って、堅牢なオンラインリプランニングをサポートするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-19T15:07:26Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - SHARP: Shielding-Aware Robust Planning for Safe and Efficient
Human-Robot Interaction [5.804727815849655]
シールド」制御スキームは、安全クリティカルなイベントが差し迫った場合に、ロボットの名目上の計画と安全フォールバック戦略をオーバーライドする。
本研究では,ロボットが将来の遮蔽イベントを明示的に考慮し,効率的に計画できる新しい遮蔽型計画手法を提案する。
論文 参考訳(メタデータ) (2021-10-02T17:01:59Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Experience-Based Heuristic Search: Robust Motion Planning with Deep
Q-Learning [0.0]
本稿では,Deep Q-Networkの形式でのエクスペリエンスを,探索アルゴリズムの最適ポリシとして統合する方法について述べる。
本手法は、自動運転車分野における強化学習に基づく計画の適用性について、さらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-02-05T12:08:11Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - Amortized Q-learning with Model-based Action Proposals for Autonomous
Driving on Highways [10.687104237121408]
トラジェクティブプランナーと組み合わせて、最適な長期運転戦略を学習する強化学習に基づくアプローチを導入する。
局所最適操作をアクションとしてオンラインに生成することにより、無限の低レベル連続アクション空間と、予め定義された標準レーン変更アクションの固定数の限られた柔軟性のバランスをとることができる。
論文 参考訳(メタデータ) (2020-12-06T11:04:40Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。