論文の概要: Learning Interpretable End-to-End Vision-Based Motion Planning for
Autonomous Driving with Optical Flow Distillation
- arxiv url: http://arxiv.org/abs/2104.12861v1
- Date: Sun, 18 Apr 2021 13:51:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:46:18.713378
- Title: Learning Interpretable End-to-End Vision-Based Motion Planning for
Autonomous Driving with Optical Flow Distillation
- Title(参考訳): オプティカルフロー蒸留を用いた自律運転のための学習解釈可能なエンド・ツー・エンドビジョンに基づく運動計画
- Authors: Hengli Wang, Peide Cai, Yuxiang Sun, Lujia Wang, Ming Liu
- Abstract要約: IVMPは、自動運転のための解釈可能なエンドツーエンドのビジョンベースのモーションプランニングアプローチです。
我々は,実時間性能を維持しつつネットワークを効果的に強化できる光フロー蒸留パラダイムを開発した。
我々のIVMPは、人間ドライバーをはるかに高い成功率で模倣する最先端のアプローチを著しく上回っています。
- 参考スコア(独自算出の注目度): 11.638798976654327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep-learning based approaches have achieved impressive performance
for autonomous driving. However, end-to-end vision-based methods typically have
limited interpretability, making the behaviors of the deep networks difficult
to explain. Hence, their potential applications could be limited in practice.
To address this problem, we propose an interpretable end-to-end vision-based
motion planning approach for autonomous driving, referred to as IVMP. Given a
set of past surrounding-view images, our IVMP first predicts future egocentric
semantic maps in bird's-eye-view space, which are then employed to plan
trajectories for self-driving vehicles. The predicted future semantic maps not
only provide useful interpretable information, but also allow our motion
planning module to handle objects with low probability, thus improving the
safety of autonomous driving. Moreover, we also develop an optical flow
distillation paradigm, which can effectively enhance the network while still
maintaining its real-time performance. Extensive experiments on the nuScenes
dataset and closed-loop simulation show that our IVMP significantly outperforms
the state-of-the-art approaches in imitating human drivers with a much higher
success rate. Our project page is available at
https://sites.google.com/view/ivmp.
- Abstract(参考訳): 近年,ディープラーニングに基づくアプローチは,自動運転の優れたパフォーマンスを実現している。
しかし、エンド・ツー・エンドの視覚に基づく手法は通常、解釈可能性に制限があるため、ディープ・ネットワークの動作を説明することは困難である。
したがって、それらの潜在的な応用は実際には制限される可能性がある。
この問題に対処するために,IVMP と呼ばれる自律運転のための解釈可能なエンドツーエンドの動作計画手法を提案する。
我々のIVMPは、過去の画像から鳥の目視空間における未来の自我中心のセマンティックマップを予測し、自動運転車の軌道計画に使用される。
予測される将来のセマンティックマップは、有用な解釈可能な情報を提供するだけでなく、我々の動き計画モジュールが低い確率で物体を扱えるようにし、自動運転の安全性を向上させる。
また, 実時間性能を維持しつつ, ネットワークを効果的に拡張できる光流蒸留パラダイムも開発している。
nuscenesデータセットとクローズドループシミュレーションに関する広範な実験は、ivmpが人間のドライバーをはるかに高い成功率で模倣する最先端のアプローチを大きく上回っていることを示している。
私たちのプロジェクトページはhttps://sites.google.com/view/ivmpで閲覧できます。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - A Cognitive-Based Trajectory Prediction Approach for Autonomous Driving [21.130543517747995]
本稿では,教師による知識蒸留の枠組みを取り入れたHuman-Like Trajectory Prediction (H)モデルを提案する。
教師」モデルは人間の脳、特に後頭葉と側頭葉の機能の視覚的処理を模倣する。
学生」モデルはリアルタイムのインタラクションと意思決定に焦点を合わせ、正確な予測のために重要な知覚的手がかりを捉えます。
論文 参考訳(メタデータ) (2024-02-29T15:22:26Z) - Driving into the Future: Multiview Visual Forecasting and Planning with
World Model for Autonomous Driving [56.381918362410175]
Drive-WMは、既存のエンド・ツー・エンドの計画モデルと互換性のある世界初のドライビングワールドモデルである。
ドライビングシーンで高忠実度マルチビュー映像を生成する。
論文 参考訳(メタデータ) (2023-11-29T18:59:47Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - KARNet: Kalman Filter Augmented Recurrent Neural Network for Learning
World Models in Autonomous Driving Tasks [11.489187712465325]
本稿では、フロントカメラ画像のみを用いて、交通流の潜在表現を学習するために、Kalmanフィルタの強化されたリカレントニューラルネットワークアーキテクチャを提案する。
その結果,車両の明示的なモデル(カルマンフィルタを用いて推定した状態)をエンドツーエンド学習に組み込むことで,性能が著しく向上した。
論文 参考訳(メタデータ) (2023-05-24T02:27:34Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - End-to-End Interactive Prediction and Planning with Optical Flow
Distillation for Autonomous Driving [16.340715765227475]
本稿では,自律運転のためのエンドツーエンド対話型ニューラルモーションプランナ(INMP)を提案する。
INMPはまず鳥の目線空間で特徴マップを生成し、それを処理して他のエージェントを検出し、インタラクティブな予測と計画を共同で実行します。
また, 実時間推定速度を維持しつつ, ネットワーク性能を効果的に向上できる光フロー蒸留パラダイムを採用している。
論文 参考訳(メタデータ) (2021-04-18T14:05:18Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。