論文の概要: 3DPillars: Pillar-based two-stage 3D object detection
- arxiv url: http://arxiv.org/abs/2509.05780v1
- Date: Sat, 06 Sep 2025 17:23:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.711979
- Title: 3DPillars: Pillar-based two-stage 3D object detection
- Title(参考訳): 3DPillar:Pillarベースの2段階の3Dオブジェクト検出
- Authors: Jongyoun Noh, Junghyup Lee, Hyekang Park, Bumsub Ham,
- Abstract要約: PointPillarsは、擬似画像表現を利用してシーン内の3Dオブジェクトの機能をエンコードする、最速の3Dオブジェクト検出器である。
本稿では,擬似画像表現を利用した最初の2段階3D検出フレームワークについて紹介する。
- 参考スコア(独自算出の注目度): 29.757231369014068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PointPillars is the fastest 3D object detector that exploits pseudo image representations to encode features for 3D objects in a scene. Albeit efficient, PointPillars is typically outperformed by state-of-the-art 3D detection methods due to the following limitations: 1) The pseudo image representations fail to preserve precise 3D structures, and 2) they make it difficult to adopt a two-stage detection pipeline using 3D object proposals that typically shows better performance than a single-stage approach. We introduce in this paper the first two-stage 3D detection framework exploiting pseudo image representations, narrowing the performance gaps between PointPillars and state-of-the-art methods, while retaining its efficiency. Our framework consists of two novel components that overcome the aforementioned limitations of PointPillars: First, we introduce a new CNN architecture, dubbed 3DPillars, that enables learning 3D voxel-based features from the pseudo image representation efficiently using 2D convolutions. The basic idea behind 3DPillars is that 3D features from voxels can be viewed as a stack of pseudo images. To implement this idea, we propose a separable voxel feature module that extracts voxel-based features without using 3D convolutions. Second, we introduce an RoI head with a sparse scene context feature module that aggregates multi-scale features from 3DPillars to obtain a sparse scene feature. This enables adopting a two-stage pipeline effectively, and fully leveraging contextual information of a scene to refine 3D object proposals. Experimental results on the KITTI and Waymo Open datasets demonstrate the effectiveness and efficiency of our approach, achieving a good compromise in terms of speed and accuracy.
- Abstract(参考訳): PointPillarsは、擬似画像表現を利用してシーン内の3Dオブジェクトの機能をエンコードする、最速の3Dオブジェクト検出器である。
効率的ではあるが、PointPillarsは通常、以下の制限により、最先端の3D検出方法によりパフォーマンスが向上する。
1)擬似画像表現は正確な3D構造を保存できず、
2) 3Dオブジェクトの提案を使って2段階検出パイプラインを採用するのが難しく、通常はシングルステージアプローチよりも優れたパフォーマンスを示す。
本稿では,その効率を保ちつつ,PointPillars と State-of-the-art メソッド間の性能ギャップを狭め,擬似画像表現を利用した最初の2段階3D検出フレームワークを紹介する。
まず、3DPillarsと呼ばれる新しいCNNアーキテクチャを導入し、2D畳み込みを使って擬似画像表現から3Dボクセルベースの特徴を学習できるようにした。
3DPillarsの背後にある基本的な考え方は、ボクセルの3D機能は擬似画像のスタックとして見ることができるということである。
このアイデアを実現するために,3次元畳み込みを使わずにボクセルベースの特徴を抽出する分離可能なボクセル特徴モジュールを提案する。
第2に、3DPillarのマルチスケール特徴を集約してスパースシーン特徴を得るスパースシーンコンテキスト特徴モジュールを備えたRoIヘッドを導入する。
これにより、2段階のパイプラインを効果的に採用でき、シーンのコンテキスト情報を完全に活用して3Dオブジェクトの提案を洗練できる。
KITTIとWaymo Openデータセットの実験結果は、我々のアプローチの有効性と効率を実証し、スピードと精度の点で良好な妥協を達成している。
関連論文リスト
- TUN3D: Towards Real-World Scene Understanding from Unposed Images [11.23080017635425]
TUN3Dは、実際のスキャンにおいて、関節配置推定と3次元物体検出に対処する新しい手法である。
地上カメラのポーズや深度監視は必要ない。
3つの挑戦的なシーン理解ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-09-23T20:24:07Z) - TSP3D: Text-guided Sparse Voxel Pruning for Efficient 3D Visual Grounding [74.033589504806]
視覚的グラウンド化のための効率的なマルチレベル畳み込みアーキテクチャを提案する。
提案手法はトップ推論速度を達成し,従来の最速の手法を100% FPS で上回っている。
論文 参考訳(メタデータ) (2025-02-14T18:59:59Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - MS23D: A 3D Object Detection Method Using Multi-Scale Semantic Feature Points to Construct 3D Feature Layer [4.644319899528183]
LiDAR点雲は、三次元空間における物体の動きと姿勢を効果的に描写することができる。
自律運転のシナリオでは、点雲の空間性と空洞性は、ボクセルベースの方法にいくつかの困難をもたらす。
我々はMS23Dと呼ばれる2段階の3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-31T08:03:25Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Consistency of Implicit and Explicit Features Matters for Monocular 3D
Object Detection [4.189643331553922]
モノクロ3D物体検出は、低コストの自律エージェントが周囲を知覚する一般的な解決策である。
本報告では,3次元表現における暗黙的特徴と明示的特徴の相違を解消するために,第1の配向認識画像バックボーンを用いたCIEFを提案する。
CIEFは、提出時にKITTIの3DおよびBEV検出ベンチマークで報告されたすべての手法の中で、第1位にランクされた。
論文 参考訳(メタデータ) (2022-07-16T13:00:32Z) - VPIT: Real-time Embedded Single Object 3D Tracking Using Voxel Pseudo Images [90.60881721134656]
本稿では,Voxel Pseudo Image Tracking (VPIT) という,Voxel-based 3D Single Object Tracking (3D SOT) 手法を提案する。
KITTI追跡データセットの実験は、VPITが最速の3D SOT法であり、競合的な成功と精度の値を維持することを示している。
論文 参考訳(メタデータ) (2022-06-06T14:02:06Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Improving 3D Object Detection with Channel-wise Transformer [58.668922561622466]
我々は手作りの最小限の設計で2段階の3Dオブジェクト検出フレームワーク(CT3D)を提案する。
CT3Dは、提案対応の埋め込みとチャンネルワイドコンテキストアグリゲーションを同時に行う。
これはKITTIテスト3D検出ベンチマークで中等車カテゴリーで81.77%のAPを達成した。
論文 参考訳(メタデータ) (2021-08-23T02:03:40Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。