論文の概要: An Efficient Approach to Generate Safe Drivable Space by LiDAR-Camera-HDmap Fusion
- arxiv url: http://arxiv.org/abs/2410.22314v1
- Date: Tue, 29 Oct 2024 17:54:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:39:38.684185
- Title: An Efficient Approach to Generate Safe Drivable Space by LiDAR-Camera-HDmap Fusion
- Title(参考訳): LiDAR-Camera-HDmap核融合による安全な乾燥空間の効率的な生成法
- Authors: Minghao Ning, Ahmad Reza Alghooneh, Chen Sun, Ruihe Zhang, Pouya Panahandeh, Steven Tuer, Ehsan Hashemi, Amir Khajepour,
- Abstract要約: ドライビング可能な空間抽出のための自律走行車(AV)のための高精度で堅牢な認識モジュールを提案する。
我々の研究は、LiDAR、カメラ、HDマップデータ融合を利用した、堅牢で汎用的な知覚モジュールを導入している。
我々のアプローチは実際のデータセットでテストされ、その信頼性は、私たちの自律シャトルであるWATonoBusの日々の(厳しい雪の天候を含む)運用中に検証されます。
- 参考スコア(独自算出の注目度): 13.451123257796972
- License:
- Abstract: In this paper, we propose an accurate and robust perception module for Autonomous Vehicles (AVs) for drivable space extraction. Perception is crucial in autonomous driving, where many deep learning-based methods, while accurate on benchmark datasets, fail to generalize effectively, especially in diverse and unpredictable environments. Our work introduces a robust easy-to-generalize perception module that leverages LiDAR, camera, and HD map data fusion to deliver a safe and reliable drivable space in all weather conditions. We present an adaptive ground removal and curb detection method integrated with HD map data for enhanced obstacle detection reliability. Additionally, we propose an adaptive DBSCAN clustering algorithm optimized for precipitation noise, and a cost-effective LiDAR-camera frustum association that is resilient to calibration discrepancies. Our comprehensive drivable space representation incorporates all perception data, ensuring compatibility with vehicle dimensions and road regulations. This approach not only improves generalization and efficiency, but also significantly enhances safety in autonomous vehicle operations. Our approach is tested on a real dataset and its reliability is verified during the daily (including harsh snowy weather) operation of our autonomous shuttle, WATonoBus
- Abstract(参考訳): 本稿では,ドライビング可能な空間抽出のための自律走行車(AV)の高精度かつロバストな認識モジュールを提案する。
認識は、多くのディープラーニングベースのメソッドがベンチマークデータセットで正確であるにもかかわらず、特に多種多様な予測不可能な環境において、効果的に一般化できない自動運転において不可欠である。
我々の研究は、LiDAR、カメラ、HDマップデータ融合を利用して、あらゆる気象条件下で安全で信頼性の高い乾燥可能な空間を提供する、堅牢で汎用的な知覚モジュールを導入している。
本稿では,HDマップデータと統合した適応的な地盤の除去・抑制検出手法を提案し,障害物検出信頼性を向上する。
また,降水雑音に最適化された適応DBSCANクラスタリングアルゴリズムと,キャリブレーションに耐性のあるコスト効率の高いLiDARカメラフラストラムアソシエーションを提案する。
我々の総合的な乾燥可能な空間表現は、すべての知覚データを包含し、車両の寸法や道路規制との整合性を確保する。
このアプローチは、一般化と効率を向上するだけでなく、自動運転車の運転における安全性を大幅に向上させる。
我々のアプローチは実際のデータセット上でテストされ、その信頼性は私たちの自律シャトルであるWATonoBusの日々の(厳しい雪の天候を含む)運転中に検証される。
関連論文リスト
- UFO: Uncertainty-aware LiDAR-image Fusion for Off-road Semantic Terrain
Map Estimation [2.048226951354646]
本稿では,BEVにおける高密度地形分類図を生成するための学習ベース融合法を提案する。
提案手法は,RGB画像とシングルスイープLiDARスキャンから生成されたセマンティックマップの精度を向上させる。
論文 参考訳(メタデータ) (2024-03-05T04:20:03Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Channel Boosting Feature Ensemble for Radar-based Object Detection [6.810856082577402]
レーダーベースの物体検出は、悪天候下でデプロイおよび使用される対応するセンサーモダリティを提供する。
提案手法の有効性をCOCO評価指標を用いて広く評価する。
論文 参考訳(メタデータ) (2021-01-10T12:20:58Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z) - Robust Autonomous Landing of UAV in Non-Cooperative Environments based
on Dynamic Time Camera-LiDAR Fusion [11.407952542799526]
低コストLiDARと双眼カメラを備えたUAVシステムを構築し,非協調環境における自律着陸を実現する。
我々は,LiDARの非繰り返し走査と高いFOVカバレッジ特性を利用して,動的時間深度補完アルゴリズムを考案した。
深度マップに基づいて, 傾斜, 粗度, 安全領域の大きさなどの高層地形情報を導出する。
論文 参考訳(メタデータ) (2020-11-27T14:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。