論文の概要: Boundary-Aware 3D Object Detection from Point Clouds
- arxiv url: http://arxiv.org/abs/2104.10330v1
- Date: Wed, 21 Apr 2021 03:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 22:55:00.378227
- Title: Boundary-Aware 3D Object Detection from Point Clouds
- Title(参考訳): 点雲からの境界認識3次元物体検出
- Authors: Rui Qian, Xin Lai, Xirong Li
- Abstract要約: 点雲からの3次元物体検出のためのBANetを提案する。
各提案を所定のカットオフしきい値内でグラフ構築のためのノードとして表現する。
私達のBANetはKITTIの3D検出のリーダーボードの性能で達成します。
- 参考スコア(独自算出の注目度): 14.772968858398043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, existing state-of-the-art 3D object detectors are in two-stage
paradigm. These methods typically comprise two steps: 1) Utilize region
proposal network to propose a fraction of high-quality proposals in a bottom-up
fashion. 2) Resize and pool the semantic features from the proposed regions to
summarize RoI-wise representations for further refinement. Note that these
RoI-wise representations in step 2) are considered individually as an
uncorrelated entry when fed to following detection headers. Nevertheless, we
observe these proposals generated by step 1) offset from ground truth somehow,
emerging in local neighborhood densely with an underlying probability.
Challenges arise in the case where a proposal largely forsakes its boundary
information due to coordinate offset while existing networks lack corresponding
information compensation mechanism. In this paper, we propose BANet for 3D
object detection from point clouds. Specifically, instead of refining each
proposal independently as previous works do, we represent each proposal as a
node for graph construction within a given cut-off threshold, associating
proposals in the form of local neighborhood graph, with boundary correlations
of an object being explicitly exploited. Besiedes, we devise a lightweight
Region Feature Aggregation Network to fully exploit voxel-wise, pixel-wise, and
point-wise feature with expanding receptive fields for more informative
RoI-wise representations. As of Apr. 17th, 2021, our BANet achieves on par
performance on KITTI 3D detection leaderboard and ranks $1^{st}$ on $Moderate$
difficulty of $Car$ category on KITTI BEV detection leaderboard. The source
code will be released once the paper is accepted.
- Abstract(参考訳): 現在、最先端の3Dオブジェクト検出器は2段階のパラダイムにある。
これらの手法は通常、2つのステップから構成される: 1) 地域提案ネットワークを利用して、ボトムアップ方式で少数の高品質な提案を提案する。
2)提案する領域から意味的特徴をリサイズ・プールし,RoI表現を要約してさらなる洗練を図る。
ステップ2におけるこれらのRoI-wise表現は、後続のヘッダーに入力されると、個別に非相関なエントリとみなされる。
それにもかかわらず、第1ステップによって生成されたこれらの提案は、何らかの理由で地平から外れ、基礎となる確率で局所的に現れる。
既存のネットワークが対応する情報補償機構を欠いている間に、コーディネートオフセットにより、提案が境界情報をほとんど禁ずる場合、課題が発生する。
本稿では,点雲からの3次元物体検出のためのBANetを提案する。
具体的には、従来のように各提案を独立に精製するのではなく、各提案を所定のカットオフしきい値内のグラフ構築のノードとして表現し、局所近傍グラフの形で提案を関連づけ、対象の境界相関を明示的に活用する。
そこで我々は,より情報的なRoI表現のための受容場を拡大し,ボクセルワイド,ピクセルワイド,ポイントワイドの機能をフル活用する,軽量な領域特徴集約ネットワークを考案した。
略称はApr。
2021年7月17日、我々のBANetはKITTIの3D検出リーダーボードで同等のパフォーマンスを達成し、KITTIのBEV検出リーダーボードで$Car$の難易度で$1^{st}$$のモデレートでランク付けした。
ソースコードは、論文が受け入れられたらリリースされます。
関連論文リスト
- PG-RCNN: Semantic Surface Point Generation for 3D Object Detection [19.341260543105548]
ポイントジェネレーションR-CNN(PG-RCNN)は、3次元物体検出のための新しいエンドツーエンド検出器である。
共同でトレーニングされたRoIポイント生成モジュールを使用して、RoIのコンテキスト情報を処理する。
PG-RCNNは生成された全ての点について、推定された前景確率を示す意味的特徴を割り当てる。
論文 参考訳(メタデータ) (2023-07-24T09:22:09Z) - A Unified BEV Model for Joint Learning of 3D Local Features and Overlap
Estimation [12.499361832561634]
本稿では,3次元局所特徴の同時学習と重なり推定のための統合鳥眼ビュー(BEV)モデルを提案する。
提案手法は,特に重複の少ないシーンにおいて,重複予測における既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-28T12:01:16Z) - Exploring Active 3D Object Detection from a Generalization Perspective [58.597942380989245]
不確実性に基づくアクティブな学習ポリシーは、ポイントクラウドの情報性とボックスレベルのアノテーションコストの間のトレードオフのバランスを取れません。
冗長な3次元境界ボックスラベルの点群を階層的にフィルタリングするtextscCrbを提案する。
実験により,提案手法が既存のアクティブラーニング戦略より優れていることが示された。
論文 参考訳(メタデータ) (2023-01-23T02:43:03Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - ProposalContrast: Unsupervised Pre-training for LiDAR-based 3D Object
Detection [114.54835359657707]
ProposalContrastは、教師なしのポイントクラウド事前トレーニングフレームワークである。
地域提案と対比することで、堅牢な3D表現を学習する。
ProposalContrastは様々な3D検出器で検証される。
論文 参考訳(メタデータ) (2022-07-26T04:45:49Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with
Voxel-to-Point Decoder [79.39041453836793]
We present an Intersection-over-Union (IoU) guided two-stage 3D object detector with a voxel-to-point decoder。
本稿では,Voxel based Region Proposal Network (RPN) からマップビュー機能に加えて,点特徴を抽出する残余のvoxel-to-pointデコーダを提案する。
そこで本研究では,推定したIoUと改良された提案ボックスをより関連性の高いローカライゼーション信頼度として整列する,簡便で効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T14:30:13Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。