論文の概要: Level 2 Autonomous Driving on a Single Device: Diving into the Devils of
Openpilot
- arxiv url: http://arxiv.org/abs/2206.08176v1
- Date: Thu, 16 Jun 2022 13:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 16:29:58.973377
- Title: Level 2 Autonomous Driving on a Single Device: Diving into the Devils of
Openpilot
- Title(参考訳): 1台のデバイス上でのレベル2の自動運転:openpilotの悪魔に潜り込む
- Authors: Li Chen, Tutian Tang, Zhitian Cai, Yang Li, Penghao Wu, Hongyang Li,
Jianping Shi, Junchi Yan, Yu Qiao
- Abstract要約: Comma.aiは、1台のカメラとボードを内蔵した999ドルのアフターマーケットデバイスがL2シナリオを処理する能力を持っていると主張している。
Comma.aiがリリースした全システムのオープンソースソフトウェアとともに、プロジェクトはOpenpilotと名付けられた。
このレポートでは、最新の知見を公開し、産業製品レベルでのエンドツーエンドの自動運転という、新たな視点について光を当てたいと思います。
- 参考スコア(独自算出の注目度): 112.21008828205409
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Equipped with a wide span of sensors, predominant autonomous driving
solutions are becoming more modular-oriented for safe system design. Though
these sensors have laid a solid foundation, most massive-production solutions
up to date still fall into L2 phase. Among these, Comma.ai comes to our sight,
claiming one $999 aftermarket device mounted with a single camera and board
inside owns the ability to handle L2 scenarios. Together with open-sourced
software of the entire system released by Comma.ai, the project is named
Openpilot. Is it possible? If so, how is it made possible? With curiosity in
mind, we deep-dive into Openpilot and conclude that its key to success is the
end-to-end system design instead of a conventional modular framework. The model
is briefed as Supercombo, and it can predict the ego vehicle's future
trajectory and other road semantics on the fly from monocular input.
Unfortunately, the training process and massive amount of data to make all
these work are not publicly available. To achieve an intensive investigation,
we try to reimplement the training details and test the pipeline on public
benchmarks. The refactored network proposed in this work is referred to as
OP-Deepdive. For a fair comparison of our version to the original Supercombo,
we introduce a dual-model deployment scheme to test the driving performance in
the real world. Experimental results on nuScenes, Comma2k19, CARLA, and
in-house realistic scenarios verify that a low-cost device can indeed achieve
most L2 functionalities and be on par with the original Supercombo model. In
this report, we would like to share our latest findings, shed some light on the
new perspective of end-to-end autonomous driving from an industrial
product-level side, and potentially inspire the community to continue improving
the performance. Our code, benchmarks are at
https://github.com/OpenPerceptionX/Openpilot-Deepdive.
- Abstract(参考訳): センサーが幅広く備わっているため、自律運転ソリューションは安全なシステム設計のためのモジュラー指向化が進んでいる。
これらのセンサーは確固たる基盤を築いているが、これまでの大量生産ソリューションのほとんどはl2段階にある。
その中でもComma.aiは、カメラとボードを内蔵した999ドルのアフターマーケットデバイスがL2シナリオを処理できる、と主張している。
Comma.aiがリリースした全システムのオープンソースソフトウェアとともに、プロジェクトはOpenpilotと名付けられた。
可能ですか?
もしそうなら、どうやって可能でしょうか?
好奇心を念頭に置いて、私たちはopenpilotを深く掘り下げて、成功への鍵は従来のモジュラーフレームワークではなくエンドツーエンドのシステム設計にあると結論付けました。
モデルはスーパーコンボ(supercombo)と略され、単眼入力からエゴの将来の軌道や他の道路の意味を予測できる。
残念ながら、これらすべての作業を行うためのトレーニングプロセスと大量のデータは、公開されていない。
集中的な調査を実現するため、トレーニングの詳細を再実装し、公開ベンチマークでパイプラインをテストする。
この研究で提案されたリファクタリングされたネットワークはOP-Deepdiveと呼ばれる。
私たちのバージョンとオリジナルのsupercomboを公正に比較するために、実世界の運転性能をテストするためにデュアルモデルデプロイメントスキームを導入します。
nuScenes、Comma2k19、CARLA、および社内の現実的なシナリオに関する実験結果は、低コストのデバイスがほとんどのL2機能を実現でき、オリジナルのSupercomboモデルと同等であることを確認した。
このレポートでは、最新の調査結果を共有し、産業製品レベルでのエンド・ツー・エンドの自動運転の新しい視点に光を当て、コミュニティにパフォーマンス向上の継続を促す可能性がある。
私たちのコード、ベンチマークはhttps://github.com/OpenPerceptionX/Openpilot-Deepdive.orgにある。
関連論文リスト
- Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving [59.705635382104454]
本稿では,E2E-ADシステムのマルチ能力をクローズドループで評価するための最初のベンチマークであるBench2Driveを紹介する。
我々は最先端のE2E-ADモデルを実装し、Bench2Driveで評価し、現状と今後の方向性について洞察を提供する。
論文 参考訳(メタデータ) (2024-06-06T09:12:30Z) - Personalized Autonomous Driving with Large Language Models: Field Experiments [11.429053835807697]
LLMベースのフレームワークであるTalk2Driveを導入し、自然言語コマンドを実行可能なコントロールに翻訳する。
これは、LLMを現実世界の自動運転車にデプロイする、最初の種類のマルチシナリオフィールド実験である。
提案するメモリモジュールは、パーソナライズされた好みを考慮し、さらに65.2%のテイクオーバ率を低下させる。
論文 参考訳(メタデータ) (2023-12-14T23:23:37Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - ADriver-I: A General World Model for Autonomous Driving [23.22507419707926]
視覚特徴と制御信号の形式を統一するインターリーブド・ビジョン・アクション・ペアの概念を導入する。
ADriver-I と呼ばれる自律運転のためのMLLMと拡散モデルに基づく一般世界モデルを構築した。
視覚作用対を入力とし、現在のフレームの制御信号を自己回帰的に予測する。
論文 参考訳(メタデータ) (2023-11-22T17:44:29Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Trajectory-guided Control Prediction for End-to-end Autonomous Driving:
A Simple yet Strong Baseline [96.31941517446859]
現在のエンドツーエンドの自律運転法は、計画された軌道に基づいてコントローラを実行するか、直接制御予測を行う。
我々の統合されたアプローチには、それぞれ軌道計画と直接制御のための2つの枝があります。
CARLAシミュレータを用いて閉ループ都市運転環境の評価を行った。
論文 参考訳(メタデータ) (2022-06-16T12:42:44Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - A LiDAR Assisted Control Module with High Precision in Parking Scenarios
for Autonomous Driving Vehicle [39.42619778086731]
我々は、人間ドライバーができない現実の産業シナリオを紹介します。
正確な(3?
位置決めモジュールを部分的に置き換えるために,まずエラーフィードバックシステムを構築した。
実験の結果はアポロのモジュールよりも優れており、特別に訓練された高度に経験された人間テストドライバーを上回っていた。
論文 参考訳(メタデータ) (2021-05-02T06:13:32Z) - The NVIDIA PilotNet Experiments [5.013775931547319]
4年前、PilotNetと呼ばれる実験システムが、高速道路に沿って自動運転車を操縦する最初のNVIDIAシステムになった。
単一ディープニューラルネットワーク(DNN)は、画素を入力とし、所望の車両軌道を出力として生成する。
この文書では、ニュージャージー州ホルムデルのNVIDIA PilotNetグループによって過去5年間に実施されたPilotNetレーン維持の取り組みについて述べています。
論文 参考訳(メタデータ) (2020-10-17T12:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。