論文の概要: Graph R-CNN: Towards Accurate 3D Object Detection with
Semantic-Decorated Local Graph
- arxiv url: http://arxiv.org/abs/2208.03624v1
- Date: Sun, 7 Aug 2022 02:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-09 13:20:12.871388
- Title: Graph R-CNN: Towards Accurate 3D Object Detection with
Semantic-Decorated Local Graph
- Title(参考訳): グラフR-CNN:Semantic-Decorated Local Graphを用いた高精度3次元オブジェクト検出を目指して
- Authors: Honghui Yang, Zili Liu, Xiaopei Wu, Wenxiao Wang, Wei Qian, Xiaofei
He, Deng Cai
- Abstract要約: 2段検出器は3次元物体検出で大いに人気を博している。
ほとんどの2段式3D検出器は、2段目のRoI特徴抽出にグリッドポイント、ボクセルグリッド、またはサンプルキーポイントを利用する。
本稿ではこの問題を3つの側面で解決する。
- 参考スコア(独自算出の注目度): 26.226885108862735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two-stage detectors have gained much popularity in 3D object detection. Most
two-stage 3D detectors utilize grid points, voxel grids, or sampled keypoints
for RoI feature extraction in the second stage. Such methods, however, are
inefficient in handling unevenly distributed and sparse outdoor points. This
paper solves this problem in three aspects. 1) Dynamic Point Aggregation. We
propose the patch search to quickly search points in a local region for each 3D
proposal. The dynamic farthest voxel sampling is then applied to evenly sample
the points. Especially, the voxel size varies along the distance to accommodate
the uneven distribution of points. 2) RoI-graph Pooling. We build local graphs
on the sampled points to better model contextual information and mine point
relations through iterative message passing. 3) Visual Features Augmentation.
We introduce a simple yet effective fusion strategy to compensate for sparse
LiDAR points with limited semantic cues. Based on these modules, we construct
our Graph R-CNN as the second stage, which can be applied to existing one-stage
detectors to consistently improve the detection performance. Extensive
experiments show that Graph R-CNN outperforms the state-of-the-art 3D detection
models by a large margin on both the KITTI and Waymo Open Dataset. And we rank
first place on the KITTI BEV car detection leaderboard. Code will be available
at \url{https://github.com/Nightmare-n/GraphRCNN}.
- Abstract(参考訳): 2段検出器は3d物体検出で大きな人気を集めている。
ほとんどの2段階の3d検出器は、第2段階のroi特徴抽出にグリッドポイント、ボクセルグリッド、サンプルキーポイントを使用する。
しかし、そのような手法は不均等に分散した屋外の点を扱うのに非効率である。
本稿ではこの問題を3つの側面で解決する。
1)動的ポイントアグリゲーション。
本稿では,各3次元提案に対して局所領域の点を高速に探索するパッチ探索を提案する。
次に、動的極端ボクセルサンプリングを適用して点を均等にサンプリングする。
特に、ボクセルサイズは点の不均一分布に対応するために距離に沿って変化する。
2)roiグラフプーリング。
サンプルポイント上にローカルグラフを構築し,反復的なメッセージパッシングによるコンテキスト情報とマイニングポイントの関係をモデル化する。
3)視覚機能強化。
本稿では,LiDAR点を限定的な意味的手がかりで補うための,単純かつ効果的な融合戦略を提案する。
これらのモジュールに基づいてグラフR-CNNを第2段階として構築し、既存の1段検出器に適用して検出性能を継続的に改善する。
大規模な実験により、Graph R-CNNは、最先端の3D検出モデルよりも、KITTIとWaymo Open Datasetに大きな差があることが示されている。
そして、KITTI BEV車検出リーダーボードで1位にランクインする。
コードは \url{https://github.com/Nightmare-n/GraphRCNN} で入手できる。
関連論文リスト
- V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - LiDAR R-CNN: An Efficient and Universal 3D Object Detector [20.17906188581305]
自動運転の知覚システムには、LiDARベースの3D検出が欠かせません。
lidar r-cnnは,既存の3d検出器を改良できる第2段検出器である。
特に、PointPillarsの1つのバリエーションに基づいて、私たちの方法は小さなコストで新しい最先端の結果を達成できます。
論文 参考訳(メタデータ) (2021-03-29T03:01:21Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - SVGA-Net: Sparse Voxel-Graph Attention Network for 3D Object Detection
from Point Clouds [8.906003527848636]
生のLIDARデータから同等の3D検出タスクを実現するために,Sparse Voxel-Graph Attention Network (SVGA-Net)を提案する。
SVGA-Netは、分割された3次元球面ボクセルと、すべてのボクセルを通してグローバルなKNNグラフ内の局所完備グラフを構成する。
KITTI検出ベンチマークの実験は、グラフ表現を3次元オブジェクト検出に拡張する効率を実証している。
論文 参考訳(メタデータ) (2020-06-07T05:01:06Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud [3.04585143845864]
本稿では,LiDAR点雲から物体を検出するグラフニューラルネットワークを提案する。
我々は、その点雲を近辺の固定半径グラフに効率よくエンコードする。
Point-GNNでは,翻訳のばらつきを低減する自動登録機構を提案する。
論文 参考訳(メタデータ) (2020-03-02T23:44:12Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。