論文の概要: PILOT: Efficient Planning by Imitation Learning and Optimisation for
Safe Autonomous Driving
- arxiv url: http://arxiv.org/abs/2011.00509v3
- Date: Fri, 30 Jul 2021 16:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:54:51.251584
- Title: PILOT: Efficient Planning by Imitation Learning and Optimisation for
Safe Autonomous Driving
- Title(参考訳): PILOT: シミュレーション学習による効率的な計画と安全な自動運転の最適化
- Authors: Henry Pulver, Francisco Eiras, Ludovico Carozza, Majd Hawasly, Stefano
V. Albrecht and Subramanian Ramamoorthy
- Abstract要約: 計画品質、安全性、効率の適切なバランスは、自動運転の大きな課題である。
我々は、模倣ニューラルネットワークと効率的なオプティマイザを組み合わせた計画フレームワークであるPILOTを提案する。
PILOTは,計画品質を犠牲にすることなく,それを模倣する専門家と比較して,ランタイムの7倍の削減を実現している。
- 参考スコア(独自算出の注目度): 16.151534376618034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving a proper balance between planning quality, safety and efficiency is
a major challenge for autonomous driving. Optimisation-based motion planners
are capable of producing safe, smooth and comfortable plans, but often at the
cost of runtime efficiency. On the other hand, naively deploying trajectories
produced by efficient-to-run deep imitation learning approaches might risk
compromising safety. In this paper, we present PILOT -- a planning framework
that comprises an imitation neural network followed by an efficient optimiser
that actively rectifies the network's plan, guaranteeing fulfilment of safety
and comfort requirements. The objective of the efficient optimiser is the same
as the objective of an expensive-to-run optimisation-based planning system that
the neural network is trained offline to imitate. This efficient optimiser
provides a key layer of online protection from learning failures or deficiency
in out-of-distribution situations that might compromise safety or comfort.
Using a state-of-the-art, runtime-intensive optimisation-based method as the
expert, we demonstrate in simulated autonomous driving experiments in CARLA
that PILOT achieves a seven-fold reduction in runtime when compared to the
expert it imitates without sacrificing planning quality.
- Abstract(参考訳): 計画品質、安全性、効率の適切なバランスを達成することは、自動運転の大きな課題である。
最適化ベースのモーションプランナーは安全でスムースで快適なプランを生成することができるが、実行時の効率が犠牲になることが多い。
一方、効率的な深層模倣学習アプローチによって生み出した軌道をナビゲート的に展開することは、安全性を損なう可能性がある。
本稿では,ニューラルネットワークの模倣と,ネットワークの計画を積極的に修正し,安全性と快適さの満足度を保証する効率的なオプティマイザからなる計画フレームワークであるpilotを提案する。
効率的なオプティマイザーの目的は、ニューラルネットワークがオフラインで模倣するように訓練される、コストの高い最適化ベースの計画システムと同じである。
この効率的なオプティマイザーは、安全性や快適を損なう可能性のある分散状況における学習障害や不足から、オンライン保護の重要な層を提供します。
CARLAのシミュレーション自動運転実験では、PILOTが計画品質を犠牲にすることなく模倣する専門家と比較して、実行時の7倍の削減を実現していることを示す。
関連論文リスト
- Hybrid Imitation-Learning Motion Planner for Urban Driving [0.0]
本稿では,学習ベースと最適化ベースを融合した新しいハイブリッドモーションプランナを提案する。
我々のモデルは、これらの目的に固有のトレードオフを緩和し、安全性と人間の類似性を効果的にバランスさせます。
シミュレーション実験により本手法を検証し,現実の自動運転車に導入することで,その有効性を更に実証する。
論文 参考訳(メタデータ) (2024-09-04T16:54:31Z) - A Safe and Efficient Self-evolving Algorithm for Decision-making and Control of Autonomous Driving Systems [19.99282698119699]
自己進化型自動運転車は、現実世界の環境における未知のシナリオに対処することが期待されている。
強化学習は 最適な政策を学ぶことで 自己進化できる。
本稿では,ハイブリッドなメカニズム-経験-学習型拡張手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T08:05:03Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Learning-Initialized Trajectory Planning in Unknown Environments [4.2960463890487555]
未知の環境での自律飛行の計画には、空間軌道と時間軌道の両方を正確に計画する必要がある。
本稿ではニューラルdトラジェクトリ・プランナーを用いて最適化を導く新しい手法を提案する。
遅延計画に対する耐性を持って、堅牢なオンラインリプランニングをサポートするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-19T15:07:26Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Experience-Based Heuristic Search: Robust Motion Planning with Deep
Q-Learning [0.0]
本稿では,Deep Q-Networkの形式でのエクスペリエンスを,探索アルゴリズムの最適ポリシとして統合する方法について述べる。
本手法は、自動運転車分野における強化学習に基づく計画の適用性について、さらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-02-05T12:08:11Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。