論文の概要: A LiDAR Assisted Control Module with High Precision in Parking Scenarios
for Autonomous Driving Vehicle
- arxiv url: http://arxiv.org/abs/2105.00398v1
- Date: Sun, 2 May 2021 06:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:54:33.710439
- Title: A LiDAR Assisted Control Module with High Precision in Parking Scenarios
for Autonomous Driving Vehicle
- Title(参考訳): 自動走行車の駐車シナリオにおける高精度LiDAR支援制御モジュール
- Authors: Xin Xu, Yu Dong, Fan Zhu
- Abstract要約: 我々は、人間ドライバーができない現実の産業シナリオを紹介します。
正確な(3?
位置決めモジュールを部分的に置き換えるために,まずエラーフィードバックシステムを構築した。
実験の結果はアポロのモジュールよりも優れており、特別に訓練された高度に経験された人間テストドライバーを上回っていた。
- 参考スコア(独自算出の注目度): 39.42619778086731
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous driving has been quite promising in recent years. The public has
seen Robotaxi delivered by Waymo, Baidu, Cruise, and so on. While autonomous
driving vehicles certainly have a bright future, we have to admit that it is
still a long way to go for products such as Robotaxi. On the other hand, in
less complex scenarios autonomous driving may have the potentiality to reliably
outperform humans. For example, humans are good at interactive tasks (while
autonomous driving systems usually do not), but we are often incompetent for
tasks with strict precision demands. In this paper, we introduce a real-world,
industrial scenario of which human drivers are not capable. The task required
the ego vehicle to keep a stationary lateral distance (i.e. 3? <= 5
centimeters) with respect to a reference. To address this challenge, we
redesigned the control module from Baidu Apollo open-source autonomous driving
system. A precise (3? <= 2 centimeters) Error Feedback System was first built
to partly replace the localization module. Then we investigated the control
module thoroughly and added a real-time calibration algorithm to gain extra
precision. We also built a simulation to fine-tune the control parameters.
After all those works, the results are encouraging, showing that an end-to-end
lateral precision with 3? <= 5 centimeters has been achieved. Further, we show
that the results not only outperformed original Apollo modules but also beat
specially trained and highly experienced human test drivers.
- Abstract(参考訳): 自動運転は近年、非常に有望なものとなっている。
一般には、waymo、baidu、cruiseなどからロボタクシーが配達されている。
自動運転車には明るい未来があることは間違いないが、robotaxiのような製品にはまだ長い道のりがあることを認めなければならない。
一方、より複雑なシナリオでは、自律運転は人間を確実に上回る可能性がある。
例えば、人間は対話的なタスク(自律運転システムは通常そうではないが)が得意だが、厳密な精度の要求のあるタスクには無能であることが多い。
本稿では,人間が運転できない実世界の産業シナリオを紹介する。
この作業では、エゴ車両は静止側距離(すなわち、静止側距離)を維持する必要があった。
3?
<=5cm)であった。
この課題に対処するため、我々はBaidu Apolloの制御モジュールをオープンソース自動運転システムから再設計しました。
正確には3つ?
<=2cm) 位置決めモジュールを部分的に置き換えるため, 誤差フィードバックシステムを構築した。
その後,制御モジュールを徹底的に検討し,さらに精度を高めるためにリアルタイムキャリブレーションアルゴリズムを追加した。
また、制御パラメータを微調整するシミュレーションを構築した。
これらの作業が終わった後、結果は奨励され、エンドツーエンドの側方精度が3であることを示します。
<=5cm。
さらに,apolloモジュールを上回っていただけでなく,特別に訓練された高度に経験された人間テストドライバーをも上回っていた。
関連論文リスト
- Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis [6.422370188350147]
本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
論文 参考訳(メタデータ) (2024-03-14T17:00:29Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Personalized Autonomous Driving with Large Language Models: Field Experiments [11.429053835807697]
LLMベースのフレームワークであるTalk2Driveを導入し、自然言語コマンドを実行可能なコントロールに翻訳する。
これは、LLMを現実世界の自動運転車にデプロイする、最初の種類のマルチシナリオフィールド実験である。
提案するメモリモジュールは、パーソナライズされた好みを考慮し、さらに65.2%のテイクオーバ率を低下させる。
論文 参考訳(メタデータ) (2023-12-14T23:23:37Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - SuperDriverAI: Towards Design and Implementation for End-to-End
Learning-based Autonomous Driving [0.0]
我々はSuperDriver AIというエンド・ツー・エンドの学習に基づく自律走行システムを提案する。
Deep Neural Networks (DNN)は、経験豊富な人間ドライバーから運転行動とポリシーを学び、運転操作を決定する。
我々は東京の1つの運転シナリオで150回の走行を収集し、現実世界の車両でSuperDriver AIのデモを見せた。
論文 参考訳(メタデータ) (2023-05-14T10:13:58Z) - Level 2 Autonomous Driving on a Single Device: Diving into the Devils of
Openpilot [112.21008828205409]
Comma.aiは、1台のカメラとボードを内蔵した999ドルのアフターマーケットデバイスがL2シナリオを処理する能力を持っていると主張している。
Comma.aiがリリースした全システムのオープンソースソフトウェアとともに、プロジェクトはOpenpilotと名付けられた。
このレポートでは、最新の知見を公開し、産業製品レベルでのエンドツーエンドの自動運転という、新たな視点について光を当てたいと思います。
論文 参考訳(メタデータ) (2022-06-16T13:43:52Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - An Intelligent Self-driving Truck System For Highway Transportation [81.12838700312308]
本稿では,インテリジェントな自動運転トラックシステムについて紹介する。
提案システムは,1)テストシナリオにおける現実的なトラフィックフローを生成する現実的なトラフィックシミュレーションモジュール,2)実環境における実際のトラックの応答を模倣するために設計,評価された高忠実度トラックモデル,の3つの主要コンポーネントから構成される。
また,提案するシステムを実車に展開し,実車間ギャップを緩和するシステムの能力を示す実物実験を行う。
論文 参考訳(メタデータ) (2021-12-31T04:54:13Z) - Predicting Physical World Destinations for Commands Given to
Self-Driving Cars [19.71691537605694]
本稿では,与えられた命令を実行した後,車が到達する必要がある3D宛先を注釈付けする拡張を提案する。
我々は、この特定の設定に適合した以前の作品より優れたモデルを導入する。
論文 参考訳(メタデータ) (2021-12-10T09:51:16Z) - BayesRace: Learning to race autonomously using prior experience [20.64931380046805]
本稿では,自律走行のためのモデルベース計画制御フレームワークを提案する。
本手法は,車載センサ計測から学習することで,シミュレーションベースコントローラ設計によるギャップを軽減する。
論文 参考訳(メタデータ) (2020-05-10T19:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。