論文の概要: Back-tracing Representative Points for Voting-based 3D Object Detection
in Point Clouds
- arxiv url: http://arxiv.org/abs/2104.06114v2
- Date: Wed, 14 Apr 2021 06:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 10:58:40.322555
- Title: Back-tracing Representative Points for Voting-based 3D Object Detection
in Point Clouds
- Title(参考訳): ポイントクラウドにおける投票に基づく3次元物体検出のためのバックトレーシング代表点
- Authors: Bowen Cheng, Lu Sheng, Shaoshuai Shi, Ming Yang, Dong Xu
- Abstract要約: back-tracing Representative Points Network (BRNet) と呼ばれる新しい3Dオブジェクト検出手法を提案する。
brnetは投票所から代表ポイントを追跡し、これらの生成したポイントの周りの補完的なシードポイントを再検討する。
当社のBRNetはシンプルで効果的で、2つの大規模ポイントクラウドデータセットの最先端のメソッドを大幅に上回ります。
- 参考スコア(独自算出の注目度): 42.24217764222523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection in point clouds is a challenging vision task that
benefits various applications for understanding the 3D visual world. Lots of
recent research focuses on how to exploit end-to-end trainable Hough voting for
generating object proposals. However, the current voting strategy can only
receive partial votes from the surfaces of potential objects together with
severe outlier votes from the cluttered backgrounds, which hampers full
utilization of the information from the input point clouds. Inspired by the
back-tracing strategy in the conventional Hough voting methods, in this work,
we introduce a new 3D object detection method, named as Back-tracing
Representative Points Network (BRNet), which generatively back-traces the
representative points from the vote centers and also revisits complementary
seed points around these generated points, so as to better capture the fine
local structural features surrounding the potential objects from the raw point
clouds. Therefore, this bottom-up and then top-down strategy in our BRNet
enforces mutual consistency between the predicted vote centers and the raw
surface points and thus achieves more reliable and flexible object localization
and class prediction results. Our BRNet is simple but effective, which
significantly outperforms the state-of-the-art methods on two large-scale point
cloud datasets, ScanNet V2 (+7.5% in terms of mAP@0.50) and SUN RGB-D (+4.7% in
terms of mAP@0.50), while it is still lightweight and efficient. Code will be
available at https://github.com/cheng052/BRNet.
- Abstract(参考訳): ポイントクラウドにおける3Dオブジェクト検出は、3Dビジュアルワールドを理解するために様々なアプリケーションに恩恵をもたらす、困難なビジョンタスクである。
最近の多くの研究は、オブジェクトの提案を生成するためにエンドツーエンドのトレーニング可能なHough投票を利用する方法に焦点を当てている。
しかし、現在の投票戦略は、潜在的なオブジェクトの表面からの部分的な投票しか受け取れず、混乱した背景から厳しい反対票が得られ、入力ポイントクラウドからの情報の完全な利用を阻害する。
そこで本研究では,従来のハフ投票法におけるバックトレーシング戦略に触発されて,投票所から代表点を生成的にバックトレーシングし,これらの生成点周辺の相補的なシード点を再検討するバックトレーシング代表点ネットワーク (brnet) と呼ばれる新しい3次元物体検出手法を導入することにより,潜在的な対象物を取り巻く微細な局所的構造を原点雲からよりよく把握する。
したがって、BRNetにおけるこのボトムアップとトップダウン戦略は、予測された投票センタと原表面点との相互整合性を強制し、より信頼性が高くフレキシブルなオブジェクトローカライゼーションとクラス予測結果を達成する。
私たちのbrnetはシンプルだが効果的で、scannet v2(map@0.50の点では+7.5%)とsun rgb-d(map@0.50の点では+4.7%)という2つの大規模ポイントクラウドデータセットの最先端の手法を大幅に上回っていますが、それでも軽量で効率的です。
コードはhttps://github.com/cheng052/brnetで入手できる。
関連論文リスト
- 3D Object Detection from Point Cloud via Voting Step Diffusion [52.9966883689137]
既存の投票ベースのメソッドは、個々のオブジェクトの部分的な面から厳しいノイズとともに投票を受け取り、亜最適検出性能をもたらす。
雑音条件付きスコアネットワークを用いて分布のスコア関数を推定することにより、ランダムな3Dポイントを分布の高密度領域へ移動させる新しい手法を提案する。
大規模屋内3DシーンデータセットSUN RGB-DとScanNet V2の実験により,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2024-03-21T05:04:52Z) - Object Detection in 3D Point Clouds via Local Correlation-Aware Point
Embedding [0.0]
Frustum PointNet(F-PointNet)に基づく点クラウドデータにおける3次元物体検出のための改良されたアプローチを提案する。
提案手法は,従来のF-PointNetと比較し,計算点の特徴のある点近傍について検討する。
論文 参考訳(メタデータ) (2023-01-11T18:14:47Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - Object as Hotspots: An Anchor-Free 3D Object Detection Approach via
Firing of Hotspots [37.16690737208046]
オブジェクトレベルのアンカーを用いた既存のメソッドとは逆のアプローチを論じる。
構成モデルに着想を得て、内部の空でないボクセルの組成として、ホットスポットと呼ばれる物体を提案する。
提案手法は,OHSに基づく新しい地中真理割当て戦略を用いたアンカーフリー検出ヘッドを提案する。
論文 参考訳(メタデータ) (2019-12-30T03:02:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。