論文の概要: Pedestrian Detection in 3D Point Clouds using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2105.01151v1
- Date: Mon, 3 May 2021 20:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 01:11:19.761011
- Title: Pedestrian Detection in 3D Point Clouds using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いた3次元点雲の歩行者検出
- Authors: \`Oscar Lorente, Josep R. Casas, Santiago Royo, Ivan Caminal
- Abstract要約: 密集した3dポイントクラウド内の歩行者を検出するためのpointnet++アーキテクチャを提案する。
目的は、歩行者検出システムにおける幾何学的情報のみの潜在的な貢献を検討することである。
また,rgb画像から歩行者および非ペデストリアンラベルを3dドメインに転送するセミオートマチックラベルシステムを提案する。
- 参考スコア(独自算出の注目度): 2.6763498831034034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting pedestrians is a crucial task in autonomous driving systems to
ensure the safety of drivers and pedestrians. The technologies involved in
these algorithms must be precise and reliable, regardless of environment
conditions. Relying solely on RGB cameras may not be enough to recognize road
environments in situations where cameras cannot capture scenes properly. Some
approaches aim to compensate for these limitations by combining RGB cameras
with TOF sensors, such as LIDARs. However, there are few works that address
this problem using exclusively the 3D geometric information provided by LIDARs.
In this paper, we propose a PointNet++ based architecture to detect pedestrians
in dense 3D point clouds. The aim is to explore the potential contribution of
geometric information alone in pedestrian detection systems. We also present a
semi-automatic labeling system that transfers pedestrian and non-pedestrian
labels from RGB images onto the 3D domain. The fact that our datasets have RGB
registered with point clouds enables label transferring by back projection from
2D bounding boxes to point clouds, with only a light manual supervision to
validate results. We train PointNet++ with the geometry of the resulting 3D
labelled clusters. The evaluation confirms the effectiveness of the proposed
method, yielding precision and recall values around 98%.
- Abstract(参考訳): 歩行者を検知することは、ドライバーや歩行者の安全を確保する自動運転システムにおいて重要な課題である。
これらのアルゴリズムに関わる技術は、環境条件にかかわらず正確かつ信頼性が求められる。
rgbカメラのみに頼ることは、カメラが適切に撮影できない状況で道路環境を認識するのに十分ではないかもしれない。
いくつかのアプローチは、RGBカメラとLIDARのようなTOFセンサーを組み合わせることで、これらの制限を補うことを目指している。
しかし、LIDARが提供する3次元幾何学情報のみを用いてこの問題に対処する研究はほとんどない。
本稿では,高密度3次元点群における歩行者検出のためのPointNet++アーキテクチャを提案する。
本研究の目的は,歩行者検出システムにおける幾何学的情報の潜在的寄与を探索することである。
また,rgb画像から歩行者および非ペデストリアンラベルを3dドメインに転送するセミオートマチックラベルシステムを提案する。
私たちのデータセットがポイントクラウドにRGBを登録しているという事実は、2Dバウンディングボックスからポイントクラウドへのバックプロジェクションによるラベル転送を可能にします。
我々はpointnet++を3dラベル付きクラスタの形状でトレーニングする。
提案手法の有効性を確認し,98%の精度とリコール値を得た。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception [20.10416681832639]
A9 Intersectionデータセットはラベル付きLiDAR点雲と同期カメラ画像で構成されている。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
論文 参考訳(メタデータ) (2023-06-15T16:39:51Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time [6.82446891805815]
単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
論文 参考訳(メタデータ) (2020-06-23T15:10:19Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。