論文の概要: 3D Vehicle Detection Using Camera and Low-Resolution LiDAR
- arxiv url: http://arxiv.org/abs/2105.01765v1
- Date: Tue, 4 May 2021 21:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:41:57.441820
- Title: 3D Vehicle Detection Using Camera and Low-Resolution LiDAR
- Title(参考訳): カメラと低解像度LiDARを用いた3次元車両検出
- Authors: Lin Bai, Yiming Zhao and Xinming Huang
- Abstract要約: 低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
- 参考スコア(独自算出の注目度): 6.293059137498174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Light Detection And Ranging (LiDAR) has been widely used in
autonomous vehicles for perception and localization. However, the cost of a
high-resolution LiDAR is still prohibitively expensive, while its
low-resolution counterpart is much more affordable. Therefore, using
low-resolution LiDAR for autonomous driving perception tasks instead of
high-resolution LiDAR is an economically feasible solution. In this paper, we
propose a novel framework for 3D object detection in Bird-Eye View (BEV) using
a low-resolution LiDAR and a monocular camera. Taking the low-resolution LiDAR
point cloud and the monocular image as input, our depth completion network is
able to produce dense point cloud that is subsequently processed by a
voxel-based network for 3D object detection. Evaluated with KITTI dataset, the
experimental results shows that the proposed approach performs significantly
better than directly applying the 16-line LiDAR point cloud for object
detection. For both easy and moderate cases, our detection results are
comparable to those from 64-line high-resolution LiDAR. The network
architecture and performance evaluations are analyzed in detail.
- Abstract(参考訳): 今日では、LiDAR(Light Detection and Ranging)は、認識とローカライゼーションのために自動運転車で広く使われている。
しかし、高解像度のLiDARの価格はまだ高額だが、低解像度のLiDARの方がずっと安い。
したがって、高分解能LiDARの代わりに低分解能LiDARを自律運転認識タスクに利用することは経済的に実現可能な解決策である。
本稿では,低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度lidarポイントクラウドと単眼画像を入力として、深度完了ネットワークは密度の高いポイントクラウドを生成でき、その後voxelベースの3dオブジェクト検出ネットワークによって処理されます。
KITTIデータセットを用いて評価した結果、提案手法は16ラインのLiDAR点雲を直接オブジェクト検出に適用するよりも、はるかに優れた性能を示した。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
ネットワークアーキテクチャと性能評価を詳細に分析する。
関連論文リスト
- SimpleBEV: Improved LiDAR-Camera Fusion Architecture for 3D Object Detection [15.551625571158056]
高精度な3次元物体検出のためのLiDARカメラ融合フレームワークSimpleBEVを提案する。
提案手法は, nuScenesデータセット上で77.6%のNDS精度を実現し, 3次元物体検出トラックにおける優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-08T02:51:39Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - LiDAR Distillation: Bridging the Beam-Induced Domain Gap for 3D Object
Detection [96.63947479020631]
多くの現実世界の応用において、大量生産されたロボットや車両が使用するLiDARポイントは通常、大規模な公開データセットよりもビームが少ない。
異なるLiDARビームによって誘導される領域ギャップをブリッジして3次元物体検出を行うLiDAR蒸留法を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:59:02Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Advancing Self-supervised Monocular Depth Learning with Sparse LiDAR [22.202192422883122]
本稿では,自己教師付き単分子深度学習を推進するための2段階ネットワークを提案する。
本モデルでは,単色画像特徴と疎LiDAR特徴を融合させて初期深度マップを推定する。
我々のモデルは、下流タスクのモノクロ3Dオブジェクト検出において、最先端のスパース-LiDAR法(Pseudo-LiDAR++)を68%以上向上させる。
論文 参考訳(メタデータ) (2021-09-20T15:28:36Z) - Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection [3.5488685789514736]
SLS-Fusionは、深度推定のためにニューラルネットワークを介して4ビームLiDARとステレオカメラからデータを融合する新しいアプローチです。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
論文 参考訳(メタデータ) (2021-03-05T23:10:09Z) - R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection [3.4761212729163313]
3次元点雲とRGB画像を融合した領域提案ネットワークR-AGNO-RPNを提案する。
私たちのアプローチは、低点のクラウド解像度にも適用できるように設計されています。
論文 参考訳(メタデータ) (2020-12-10T15:22:58Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。