論文の概要: DurLAR: A High-fidelity 128-channel LiDAR Dataset with Panoramic Ambient and Reflectivity Imagery for Multi-modal Autonomous Driving Applications
- arxiv url: http://arxiv.org/abs/2406.10068v1
- Date: Fri, 14 Jun 2024 14:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:25:54.913928
- Title: DurLAR: A High-fidelity 128-channel LiDAR Dataset with Panoramic Ambient and Reflectivity Imagery for Multi-modal Autonomous Driving Applications
- Title(参考訳): DurLAR:多モード自律運転用パノラマ環境・反射率画像を用いた高忠実128チャンネルLiDARデータセット
- Authors: Li Li, Khalid N. Ismail, Hubert P. H. Shum, Toby P. Breckon,
- Abstract要約: DurLARはパノラマ環境(近赤外)と反射率画像を備えた高忠実度18チャンネルのLiDARデータセットである。
提案手法は, 自己監督的・自己監督的損失項を, より優れた基礎的真理分解によって実現したことを示すものである。
- 参考スコア(独自算出の注目度): 21.066770408683265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DurLAR, a high-fidelity 128-channel 3D LiDAR dataset with panoramic ambient (near infrared) and reflectivity imagery, as well as a sample benchmark task using depth estimation for autonomous driving applications. Our driving platform is equipped with a high resolution 128 channel LiDAR, a 2MPix stereo camera, a lux meter and a GNSS/INS system. Ambient and reflectivity images are made available along with the LiDAR point clouds to facilitate multi-modal use of concurrent ambient and reflectivity scene information. Leveraging DurLAR, with a resolution exceeding that of prior benchmarks, we consider the task of monocular depth estimation and use this increased availability of higher resolution, yet sparse ground truth scene depth information to propose a novel joint supervised/self-supervised loss formulation. We compare performance over both our new DurLAR dataset, the established KITTI benchmark and the Cityscapes dataset. Our evaluation shows our joint use supervised and self-supervised loss terms, enabled via the superior ground truth resolution and availability within DurLAR improves the quantitative and qualitative performance of leading contemporary monocular depth estimation approaches (RMSE=3.639, Sq Rel=0.936).
- Abstract(参考訳): 我々は,パノラマ環境(近赤外)と反射率画像を備えた高忠実度18チャネル3次元LiDARデータセットであるDurLARと,自律運転用深度推定を用いたサンプルベンチマークタスクを提案する。
我々の駆動プラットフォームは、高解像度の128チャンネルのLiDAR、2MPixステレオカメラ、ラックスメーター、GNSS/INSシステムを備えている。
アンビエントおよびリフレクティビティ画像は、LiDAR点雲と共に利用可能であり、同時環境およびリフレクティビティシーン情報のマルチモーダル利用を容易にする。
DurLARを応用し, 先行ベンチマークを上回り, 単眼深度推定の課題を考察し, この高分解能の高可用性化を図るとともに, 地中真相の深度情報を用いて, 新たな共同監督型・自己監督型損失定式化を提案する。
我々は、新しいDurLARデータセット、確立されたKITTIベンチマーク、Cityscapesデータセットのパフォーマンスを比較した。
以上の結果から,DurLAR内における地上の真理分解と可利用性により,従来の一分子深度推定手法(RMSE=3.639, Sq Rel=0.936)の定量的・定性的性能が向上することを示す。
関連論文リスト
- LED: Light Enhanced Depth Estimation at Night [10.941842055797125]
低照度環境における深度推定を大幅に改善する新しいコスト効率のアプローチであるLED(Light Enhanced Depth)を導入する。
LEDは、現代の車両で利用できる高解像度ヘッドライトによって投影されるパターンを利用する。
49,990の注釈付き画像からなるNighttime Synthetic Driveデータセットをリリースする。
論文 参考訳(メタデータ) (2024-09-12T13:23:24Z) - DINO-SD: Champion Solution for ICRA 2024 RoboDepth Challenge [54.71866583204417]
本稿では,新しいサラウンドビュー深度推定モデルであるDINO-SDを紹介する。
我々のDINO-SDは追加のデータを必要とせず、強い堅牢性を持っている。
DINO-SDは、ICRA 2024 RoboDepth Challengeのトラック4で最高のパフォーマンスを得られる。
論文 参考訳(メタデータ) (2024-05-27T12:21:31Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - Depth Estimation Matters Most: Improving Per-Object Depth Estimation for
Monocular 3D Detection and Tracking [47.59619420444781]
検出・追跡を含む単眼的3D知覚へのアプローチは、LiDARベースの手法と比較して性能が劣ることが多い。
本稿では,オブジェクト(トラックレット)の複数のフレームに異なる表現(RGBと擬似LiDAR)と時間情報を組み合わせた多層融合手法を提案する。
論文 参考訳(メタデータ) (2022-06-08T03:37:59Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - LiDARTouch: Monocular metric depth estimation with a few-beam LiDAR [40.98198236276633]
視覚に基づく深度推定は、自律システムにおいて重要な特徴である。
このような単分子配置では、1つまたは複数の高価なLiDARから追加の入力で濃密な深さが得られる。
本稿では,単眼カメラと軽量LiDARを組み合わせることで,距離深度を高密度に推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T12:06:31Z) - 3D Vehicle Detection Using Camera and Low-Resolution LiDAR [6.293059137498174]
低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
論文 参考訳(メタデータ) (2021-05-04T21:08:20Z) - LEAD: LiDAR Extender for Autonomous Driving [48.233424487002445]
MEMS LiDARは、その低コスト、より堅牢、および大量生産基準を満たすため、耐え難い傾向で出現します。
それは小さい視野(FoV)に苦しめられ、人口のステップを遅らせます。
我々は、MEMS LiDARをFoVと範囲を結合して拡張するLEAD(LiDAR Extender for Automation)を提案する。
論文 参考訳(メタデータ) (2021-02-16T07:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。