論文の概要: 3D Object Detection From LiDAR Data Using Distance Dependent Feature
Extraction
- arxiv url: http://arxiv.org/abs/2003.00888v2
- Date: Tue, 3 Mar 2020 07:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:23:05.092878
- Title: 3D Object Detection From LiDAR Data Using Distance Dependent Feature
Extraction
- Title(参考訳): 距離依存特徴抽出を用いたLiDARデータからの3次元物体検出
- Authors: Guus Engels, Nerea Aranjuelo, Ignacio Arganda-Carreras, Marcos Nieto
and Oihana Otaegui
- Abstract要約: 本研究は、LiDAR点雲の性質を遠距離で考慮し、3次元物体検出器の改良を提案する。
その結果、近距離および長距離オブジェクトのための個別ネットワークのトレーニングは、すべてのKITTIベンチマークの困難さに対するパフォーマンスを高めることが示された。
- 参考スコア(独自算出の注目度): 7.04185696830272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a new approach to 3D object detection that leverages the
properties of the data obtained by a LiDAR sensor. State-of-the-art detectors
use neural network architectures based on assumptions valid for camera images.
However, point clouds obtained from LiDAR are fundamentally different. Most
detectors use shared filter kernels to extract features which do not take into
account the range dependent nature of the point cloud features. To show this,
different detectors are trained on two splits of the KITTI dataset: close range
(objects up to 25 meters from LiDAR) and long-range. Top view images are
generated from point clouds as input for the networks. Combined results
outperform the baseline network trained on the full dataset with a single
backbone. Additional research compares the effect of using different input
features when converting the point cloud to image. The results indicate that
the network focuses on the shape and structure of the objects, rather than
exact values of the input. This work proposes an improvement for 3D object
detectors by taking into account the properties of LiDAR point clouds over
distance. Results show that training separate networks for close-range and
long-range objects boosts performance for all KITTI benchmark difficulties.
- Abstract(参考訳): 本稿では,LiDARセンサで得られたデータの特性を利用した3次元物体検出手法を提案する。
最先端検出器は、カメラ画像に有効な仮定に基づいてニューラルネットワークアーキテクチャを使用する。
しかし、LiDARから得られる点雲は基本的に異なる。
ほとんどの検出器は共有フィルタカーネルを使用して、ポイントクラウドの特徴の範囲に依存しない特徴を抽出している。
これを示すために、異なる検出器はKITTIデータセットの2つの分割(LiDARから最大25メートルの範囲)と長距離で訓練される。
トップビュー画像は、ネットワークの入力としてポイントクラウドから生成される。
合計結果は、単一のバックボーンでフルデータセットでトレーニングされたベースラインネットワークを上回る。
追加の研究は、点雲を画像に変換する際に異なる入力特徴を使用することの効果を比較する。
その結果,ネットワークは入力の正確な値ではなく,オブジェクトの形状と構造に注目していることがわかった。
本研究では,lidar点雲の遠距離特性を考慮した3次元物体検出器の改良を提案する。
その結果、近距離および長距離オブジェクトのための個別ネットワークのトレーニングは、すべてのKITTIベンチマークの困難さに対するパフォーマンスを高めることが示された。
関連論文リスト
- Sparse-to-Dense LiDAR Point Generation by LiDAR-Camera Fusion for 3D Object Detection [9.076003184833557]
2D画像特徴を融合させてLiDARポイントクラウドデータを再構成する新しいフレームワークであるLiDAR-Camera Augmentation Network (LCANet)を提案する。
LCANetは、画像特徴を3D空間に投影し、意味情報をポイントクラウドデータに統合することで、LiDARセンサーからのデータを融合する。
この融合は、しばしばスパースポイントで表される長距離物体の検出におけるLiDARの弱点を効果的に補う。
論文 参考訳(メタデータ) (2024-09-23T13:03:31Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Pattern-Aware Data Augmentation for LiDAR 3D Object Detection [7.394029879643516]
本稿では,LiDARの特性に基づいてオブジェクトの点群をダウンサンプリングするデータ拡張手法である,パターン認識基底真理サンプリングを提案する。
自動車クラスにおけるPV-RCNNの性能は,25m以上の距離で分割したKITTI検証で0.7%以上向上した。
論文 参考訳(メタデータ) (2021-11-30T19:14:47Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。