論文の概要: Lidar Point Cloud Guided Monocular 3D Object Detection
- arxiv url: http://arxiv.org/abs/2104.09035v1
- Date: Mon, 19 Apr 2021 03:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:51:27.271076
- Title: Lidar Point Cloud Guided Monocular 3D Object Detection
- Title(参考訳): lidar point cloud誘導型単眼3次元物体検出
- Authors: Liang Peng, Fei Liu, Zhengxu Yu, Senbo Yan, Dan Deng, Deng Cai
- Abstract要約: モノクル3D検出は、LiDARベースの方法と比較して非常に低い検出率で苦戦している。
精度の低さは、主に単眼画像の異常な性質により、正確な深さの手がかりがないことによって引き起こされる。
正確な深度測定を提供するLiLiDAR点雲は、単分子法の訓練に有用な情報を提供することができる。
- 参考スコア(独自算出の注目度): 28.11167910809217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D object detection is drawing increasing attention from the
community as it enables cars to perceive the world in 3D with a single camera.
However, monocular 3D detection currently struggles with extremely lower
detection rates compared to LiDAR-based methods, limiting its applications. The
poor accuracy is mainly caused by the absence of accurate depth cues due to the
ill-posed nature of monocular imagery. LiDAR point clouds, which provide
accurate depth measurement, can offer beneficial information for the training
of monocular methods. Prior works only use LiDAR point clouds to train a depth
estimator. This implicit way does not fully utilize LiDAR point clouds,
consequently leading to suboptimal performances. To effectively take advantage
of LiDAR point clouds, in this paper we propose a general, simple yet effective
framework for monocular methods. Specifically, we use LiDAR point clouds to
directly guide the training of monocular 3D detectors, allowing them to learn
desired objectives meanwhile eliminating the extra annotation cost. Thanks to
the general design, our method can be plugged into any monocular 3D detection
method, significantly boosting the performance. In conclusion, we take the
first place on KITTI monocular 3D detection benchmark and increase the BEV/3D
AP from 11.88/8.65 to 22.06/16.80 on the hard setting for the prior
state-of-the-art method. The code will be made publicly available soon.
- Abstract(参考訳): モノクロ3Dオブジェクト検出は、車が1台のカメラで3Dの世界を知覚できるようにするため、コミュニティから注目を集めている。
しかし、現在モノクロ3D検出はLiDARベースの方法と比較して非常に低い検出率で困難であり、その応用は制限されている。
精度の低さは、主に単眼画像の異常な性質により、正確な深さの手がかりがないことによって引き起こされる。
正確な深度測定を提供するLiDAR点雲は、単分子法の訓練に有用な情報を提供することができる。
先行研究は、深度推定器を訓練するためにライダーポイント雲のみを使用する。
この暗黙的な方法は、LiDARポイントクラウドを完全に利用していないため、結果として、サブ最適パフォーマンスにつながる。
本稿では,lidar点雲を効果的に活用するために,単眼的手法の汎用的,単純かつ効果的な枠組みを提案する。
具体的には、LiDAR点雲を用いて単分子3D検出器のトレーニングを直接指導し、付加的なアノテーションコストを排除しながら、望ましい目的を学習することができる。
汎用設計により,本手法は任意の単分子3次元検出法に接続可能となり,性能が著しく向上する。
結論として,kitti monocular 3d detection benchmark において,先行手法のハード設定において bev/3d ap を 11.88/8.65 から 22.06/16.80 に増加させた。
コードはまもなく公開される予定だ。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - Self-supervised 3D Object Detection from Monocular Pseudo-LiDAR [9.361704310981196]
単眼画像のみを用いた絶対深度予測と3次元物体検出手法を提案する。
その結果,提案手法は,KITTI 3Dデータセット上での他の既存手法を上回る性能を示した。
論文 参考訳(メタデータ) (2022-09-20T05:55:49Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - MonoGround: Detecting Monocular 3D Objects from the Ground [14.225093154566439]
本研究では, 単分子3次元物体検出において, 地上面を先行として導入することを提案する。
地上平面は、不測のマッピングに対する追加の幾何学的条件として機能し、深度推定の余分な情報源として機能する。
提案手法は, 高速な動作を保ちながら, 他の手法と比較して, 最先端の結果を得ることができた。
論文 参考訳(メタデータ) (2022-06-15T08:27:46Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Advancing Self-supervised Monocular Depth Learning with Sparse LiDAR [22.202192422883122]
本稿では,自己教師付き単分子深度学習を推進するための2段階ネットワークを提案する。
本モデルでは,単色画像特徴と疎LiDAR特徴を融合させて初期深度マップを推定する。
我々のモデルは、下流タスクのモノクロ3Dオブジェクト検出において、最先端のスパース-LiDAR法(Pseudo-LiDAR++)を68%以上向上させる。
論文 参考訳(メタデータ) (2021-09-20T15:28:36Z) - Gated3D: Monocular 3D Object Detection From Temporal Illumination Cues [28.806932489163888]
低コストな単分子ゲート型画像処理装置から時間的照度を利用した新しい3次元物体検出法を提案する。
提案手法は,1万km以上の運転データから得られたゲート画像を含む新しい3次元検出データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-06T16:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。