論文の概要: An Overview Of 3D Object Detection
- arxiv url: http://arxiv.org/abs/2010.15614v1
- Date: Thu, 29 Oct 2020 14:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:14:10.938876
- Title: An Overview Of 3D Object Detection
- Title(参考訳): 3次元物体検出技術の概要
- Authors: Yilin Wang, Jiayi Ye
- Abstract要約: マルチクラスオブジェクト認識を行うために,RGBデータとポイントクラウドデータの両方を用いるフレームワークを提案する。
最近リリースされたnuScenesデータセット - 大規模なデータセットには多くのデータフォーマットが含まれています - をトレーニングし、提案したアーキテクチャを評価します。
- 参考スコア(独自算出の注目度): 21.159668390764832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud 3D object detection has recently received major attention and
becomes an active research topic in 3D computer vision community. However,
recognizing 3D objects in LiDAR (Light Detection and Ranging) is still a
challenge due to the complexity of point clouds. Objects such as pedestrians,
cyclists, or traffic cones are usually represented by quite sparse points,
which makes the detection quite complex using only point cloud. In this
project, we propose a framework that uses both RGB and point cloud data to
perform multiclass object recognition. We use existing 2D detection models to
localize the region of interest (ROI) on the RGB image, followed by a pixel
mapping strategy in the point cloud, and finally, lift the initial 2D bounding
box to 3D space. We use the recently released nuScenes dataset---a large-scale
dataset contains many data formats---to training and evaluate our proposed
architecture.
- Abstract(参考訳): point cloud 3dオブジェクト検出は最近大きな注目を集め、3dコンピュータビジョンコミュニティで活発な研究テーマとなっている。
しかし、点雲の複雑さのため、LiDAR(Light Detection and Ranging)で3Dオブジェクトを認識することは依然として課題である。
歩行者、サイクリスト、交通コーンなどの物体は、通常、非常にスパースな点で表されるため、ポイントクラウドのみを使用して検出が非常に複雑になる。
本稿では,RGBとポイントクラウドデータの両方を用いてマルチクラスオブジェクト認識を行うフレームワークを提案する。
既存の2D検出モデルを用いて、RGB画像上の関心領域(ROI)をローカライズし、続いてポイントクラウド内のピクセルマッピング戦略を行い、最終的に最初の2D境界ボックスを3D空間に持ち上げる。
我々は最近リリースされたnuScenesデータセットを使用し、大規模なデータセットには多くのデータフォーマットが含まれています。
関連論文リスト
- Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Bridged Transformer for Vision and Point Cloud 3D Object Detection [92.86856146086316]
Bridged Transformer (BrT) は、3Dオブジェクト検出のためのエンドツーエンドアーキテクチャである。
BrTは3Dオブジェクトと2Dオブジェクトのバウンディングボックスを、ポイントとイメージパッチの両方から識別する。
BrTがSUN RGB-DおよびScanNetV2データセットの最先端手法を上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T05:44:22Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。