論文の概要: HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2104.00902v1
- Date: Fri, 2 Apr 2021 06:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:50:58.463274
- Title: HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection
- Title(参考訳): hvpr:単段3次元物体検出のためのハイブリッドvoxel-point表現
- Authors: Jongyoun Noh, Sanghoon Lee, Bumsub Ham
- Abstract要約: 3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
- 参考スコア(独自算出の注目度): 39.64891219500416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of 3D object detection, that is, estimating 3D object
bounding boxes from point clouds. 3D object detection methods exploit either
voxel-based or point-based features to represent 3D objects in a scene.
Voxel-based features are efficient to extract, while they fail to preserve
fine-grained 3D structures of objects. Point-based features, on the other hand,
represent the 3D structures more accurately, but extracting these features is
computationally expensive. We introduce in this paper a novel single-stage 3D
detection method having the merit of both voxel-based and point-based features.
To this end, we propose a new convolutional neural network (CNN) architecture,
dubbed HVPR, that integrates both features into a single 3D representation
effectively and efficiently. Specifically, we augment the point-based features
with a memory module to reduce the computational cost. We then aggregate the
features in the memory, semantically similar to each voxel-based one, to obtain
a hybrid 3D representation in a form of a pseudo image, allowing to localize 3D
objects in a single stage efficiently. We also propose an Attentive Multi-scale
Feature Module (AMFM) that extracts scale-aware features considering the sparse
and irregular patterns of point clouds. Experimental results on the KITTI
dataset demonstrate the effectiveness and efficiency of our approach, achieving
a better compromise in terms of speed and accuracy.
- Abstract(参考訳): 我々は,3次元物体検出,すなわち点雲から3次元物体境界ボックスを推定する問題に対処する。
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
voxelベースの機能は抽出に効率的だが、粒度の細かいオブジェクトの3d構造は保存できない。
一方、ポイントベースの特徴は3D構造をより正確に表現するが、これらの特徴の抽出は計算的に高価である。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
そこで本研究では,両機能を1つの3次元表現に効果的かつ効率的に統合する新しい畳み込みニューラルネットワーク(cnn)アーキテクチャであるhvprを提案する。
具体的には,ポイントベースの機能をメモリモジュールで拡張し,計算コストを削減する。
次に、各ボクセルベースとセマンティックに類似したメモリの特徴を集約し、擬似画像の形でハイブリッドな3D表現を得ることにより、単一のステージで効率的に3Dオブジェクトをローカライズする。
また,点雲のスパースパターンと不規則パターンを考慮した大規模特徴を抽出するAttentive Multi-scale Feature Module (AMFM)を提案する。
KITTIデータセットの実験結果は、我々のアプローチの有効性と効率を実証し、速度と精度の点でより良い妥協を達成している。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Voxel-based 3D Detection and Reconstruction of Multiple Objects from a
Single Image [22.037472446683765]
入力画像から3次元特徴持ち上げ演算子を用いて3次元シーン空間に整合した3次元ボクセル特徴の正規格子を学習する。
この3Dボクセルの特徴に基づき,新しいCenterNet-3D検出ヘッドは3D空間におけるキーポイント検出として3D検出を定式化する。
我々は、粗度ボキセル化や、新しい局所PCA-SDF形状表現を含む、効率的な粗度から細度の再構成モジュールを考案する。
論文 参考訳(メタデータ) (2021-11-04T18:30:37Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。