論文の概要: Rethinking Pseudo-LiDAR Representation
- arxiv url: http://arxiv.org/abs/2008.04582v1
- Date: Tue, 11 Aug 2020 08:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:44:58.986084
- Title: Rethinking Pseudo-LiDAR Representation
- Title(参考訳): 擬似LiDAR表現の再考
- Authors: Xinzhu Ma, Shinan Liu, Zhiyi Xia, Hongwen Zhang, Xingyu Zeng and Wanli
Ouyang
- Abstract要約: 我々は、より一般化され、擬似LiDARベースの3D検出器としてインスタンス化できるPatch-Netという画像ベースCNN検出器を提案する。
提案するPatchNetは,既存の擬似LiDARベースデータセットよりも優れています。
- 参考スコア(独自算出の注目度): 70.29791705160203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed pseudo-LiDAR based 3D detectors greatly improve the
benchmark of monocular/stereo 3D detection task. However, the underlying
mechanism remains obscure to the research community. In this paper, we perform
an in-depth investigation and observe that the efficacy of pseudo-LiDAR
representation comes from the coordinate transformation, instead of data
representation itself. Based on this observation, we design an image based CNN
detector named Patch-Net, which is more generalized and can be instantiated as
pseudo-LiDAR based 3D detectors. Moreover, the pseudo-LiDAR data in our
PatchNet is organized as the image representation, which means existing 2D CNN
designs can be easily utilized for extracting deep features from input data and
boosting 3D detection performance. We conduct extensive experiments on the
challenging KITTI dataset, where the proposed PatchNet outperforms all existing
pseudo-LiDAR based counterparts. Code has been made available at:
https://github.com/xinzhuma/patchnet.
- Abstract(参考訳): 最近提案された擬似LiDARベースの3D検出器は、単分子/ステレオ3D検出タスクのベンチマークを大幅に改善した。
しかし、基礎となるメカニズムは研究コミュニティには明らかでない。
本稿では,疑似ライダー表現の有効性について,データ表現そのものではなく,座標変換による検証を行う。
この観測に基づいて、より一般化され、擬似LiDARベースの3D検出器としてインスタンス化できるPatch-Netという画像ベースのCNN検出器を設計する。
さらに,PatchNetにおける擬似LiDARデータを画像表現として整理することにより,既存の2次元CNN設計を入力データから深部特徴抽出や3次元検出性能の向上に活用することができる。
提案するpatchnetが既存の疑似ライダーベースのデータセットのすべてを上回る,挑戦的なkittiデータセットに関する広範な実験を行う。
コードはhttps://github.com/xinzhuma/patchnet.comで公開されている。
関連論文リスト
- Label-Guided Auxiliary Training Improves 3D Object Detector [32.96310946612949]
3次元物体検出(LG3D)のためのラベル誘導補助訓練法を提案する。
提案したLG3Dは,SUN RGB-DおよびScanNetV2データセット上でVoteNetを2.5%,3.1%改善する。
論文 参考訳(メタデータ) (2022-07-24T14:22:21Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - LiDAR R-CNN: An Efficient and Universal 3D Object Detector [20.17906188581305]
自動運転の知覚システムには、LiDARベースの3D検出が欠かせません。
lidar r-cnnは,既存の3d検出器を改良できる第2段検出器である。
特に、PointPillarsの1つのバリエーションに基づいて、私たちの方法は小さなコストで新しい最先端の結果を達成できます。
論文 参考訳(メタデータ) (2021-03-29T03:01:21Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。