論文の概要: End-to-end Autonomous Driving Perception with Sequential Latent
Representation Learning
- arxiv url: http://arxiv.org/abs/2003.12464v2
- Date: Fri, 9 Oct 2020 03:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 10:15:28.455103
- Title: End-to-end Autonomous Driving Perception with Sequential Latent
Representation Learning
- Title(参考訳): 逐次潜在表現学習によるエンドツーエンドの自律走行知覚
- Authors: Jianyu Chen, Zhuo Xu and Masayoshi Tomizuka
- Abstract要約: エンドツーエンドのアプローチでは、システムをクリーンアップし、人間のエンジニアリングの膨大な努力を避けることができる。
潜在空間は、知覚に有用なすべての関連する特徴を捉えるために導入され、逐次潜在表現学習を通じて学習される。
学習したエンドツーエンドの知覚モデルは、最小限の人間工学的努力だけで検出、追跡、ローカライゼーション、マッピングの問題を解決することができる。
- 参考スコア(独自算出の注目度): 34.61415516112297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current autonomous driving systems are composed of a perception system and a
decision system. Both of them are divided into multiple subsystems built up
with lots of human heuristics. An end-to-end approach might clean up the system
and avoid huge efforts of human engineering, as well as obtain better
performance with increasing data and computation resources. Compared to the
decision system, the perception system is more suitable to be designed in an
end-to-end framework, since it does not require online driving exploration. In
this paper, we propose a novel end-to-end approach for autonomous driving
perception. A latent space is introduced to capture all relevant features
useful for perception, which is learned through sequential latent
representation learning. The learned end-to-end perception model is able to
solve the detection, tracking, localization and mapping problems altogether
with only minimum human engineering efforts and without storing any maps
online. The proposed method is evaluated in a realistic urban driving
simulator, with both camera image and lidar point cloud as sensor inputs. The
codes and videos of this work are available at our github repo and project
website.
- Abstract(参考訳): 現在の自律運転システムは認識システムと意思決定システムから構成されている。
どちらも、多くの人間のヒューリスティックで構築された複数のサブシステムに分割されている。
エンドツーエンドのアプローチは、システムをクリーンアップし、人間のエンジニアリングの膨大な労力を回避し、データや計算資源を増やすことでより良いパフォーマンスを得る。
意思決定システムと比較して、知覚システムは、オンライン運転探索を必要としないため、エンドツーエンドのフレームワークで設計する方が適している。
本稿では,自律運転認識のためのエンドツーエンドアプローチを提案する。
逐次的潜在表現学習を通じて学習される知覚に有用な全ての関連する特徴を捉えるために潜在空間が導入された。
学習されたエンド・ツー・エンドの知覚モデルは、地図をオンラインに保存することなく、最小限の人間工学的努力だけで、検出、追跡、ローカライゼーション、マッピングの問題を解決することができる。
提案手法は,カメラ画像とライダー点雲の両方をセンサ入力として,現実的な都市運転シミュレータで評価する。
この作業のコードとビデオは、githubリポジトリおよびプロジェクトのwebサイトから入手できます。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - KARNet: Kalman Filter Augmented Recurrent Neural Network for Learning
World Models in Autonomous Driving Tasks [11.489187712465325]
本稿では、フロントカメラ画像のみを用いて、交通流の潜在表現を学習するために、Kalmanフィルタの強化されたリカレントニューラルネットワークアーキテクチャを提案する。
その結果,車両の明示的なモデル(カルマンフィルタを用いて推定した状態)をエンドツーエンド学習に組み込むことで,性能が著しく向上した。
論文 参考訳(メタデータ) (2023-05-24T02:27:34Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。