論文の概要: Local Grid Rendering Networks for 3D Object Detection in Point Clouds
- arxiv url: http://arxiv.org/abs/2007.02099v1
- Date: Sat, 4 Jul 2020 13:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:37:25.457635
- Title: Local Grid Rendering Networks for 3D Object Detection in Point Clouds
- Title(参考訳): 点群における3次元物体検出のための局所グリッドレンダリングネットワーク
- Authors: Jianan Li, Jiashi Feng
- Abstract要約: CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
- 参考スコア(独自算出の注目度): 98.02655863113154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of 3D object detection models over point clouds highly
depends on their capability of modeling local geometric patterns. Conventional
point-based models exploit local patterns through a symmetric function (e.g.
max pooling) or based on graphs, which easily leads to loss of fine-grained
geometric structures. Regarding capturing spatial patterns, CNNs are powerful
but it would be computationally costly to directly apply convolutions on point
data after voxelizing the entire point clouds to a dense regular 3D grid. In
this work, we aim to improve performance of point-based models by enhancing
their pattern learning ability through leveraging CNNs while preserving
computational efficiency. We propose a novel and principled Local Grid
Rendering (LGR) operation to render the small neighborhood of a subset of input
points into a low-resolution 3D grid independently, which allows small-size
CNNs to accurately model local patterns and avoids convolutions over a dense
grid to save computation cost. With the LGR operation, we introduce a new
generic backbone called LGR-Net for point cloud feature extraction with simple
design and high efficiency. We validate LGR-Net for 3D object detection on the
challenging ScanNet and SUN RGB-D datasets. It advances state-of-the-art
results significantly by 5.5 and 4.5 mAP, respectively, with only slight
increased computation overhead.
- Abstract(参考訳): 点群上の3次元物体検出モデルの性能は,局所幾何パターンのモデル化能力に大きく依存する。
従来の点ベースモデルは、対称関数(例えば最大プーリング)やグラフに基づく局所パターンを利用するため、きめ細かい幾何学的構造が失われやすい。
空間パターンの取得に関しては、cnnは強力であるが、ポイント雲全体を密度の高い3dグリッドにボクセル化した後、ポイントデータに直接畳み込みを適用するのは計算コストがかかる。
本研究では,CNNを活用し,計算効率を保ちつつ,パターン学習能力を向上させることにより,点ベースモデルの性能向上を目指す。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングするLGR(Local Grid Rendering)演算を提案する。これにより、小型CNNが局所パターンを正確にモデル化し、高密度グリッド上の畳み込みを回避し、計算コストを削減できる。
LGR操作では、シンプルな設計と高効率のポイントクラウド特徴抽出のためのLGR-Netと呼ばれる新しい汎用バックボーンを導入する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
それぞれ5.5mAPと4.5mAPで、計算オーバーヘッドはわずかに増加している。
関連論文リスト
- Mini-PointNetPlus: a local feature descriptor in deep learning model for
3d environment perception [7.304195370862869]
そこで我々は,PointNet へのプラグイン・アンド・プレイの代替として,新しいローカル機能記述子 mini-PointNetPlus を提案する。
我々の基本的な考え方は、データポイントを考慮された個々の特徴に別々に投影することであり、それぞれが置換不変となる。
提案する記述子の特徴を十分に活用するため,3次元知覚の性能向上実験を行った。
論文 参考訳(メタデータ) (2023-07-25T07:30:28Z) - MLGCN: An Ultra Efficient Graph Convolution Neural Model For 3D Point
Cloud Analysis [4.947552172739438]
グラフニューラルネットワーク(GNN)ブロックを用いて,特定の局所レベルの3次元点雲から特徴を抽出する,MLGCN(Multi-level Graph Convolution Neural)モデルを提案する。
提案手法は,浮動小数点演算(FLOP)の最大1000倍の削減と,ストレージ要求の大幅な削減を図りながら,最先端モデルに匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2023-03-31T00:15:22Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - LatticeNet: Fast Spatio-Temporal Point Cloud Segmentation Using
Permutohedral Lattices [27.048998326468688]
深層畳み込みニューラルネットワーク(CNN)は、画像のセグメンテーションに際し、優れた性能を示している。
本稿では,3次元セマンティックセグメンテーションの新たなアプローチであるLatticeNetを提案する。
本稿では,本手法が最先端性能を実現する複数のデータセット上での3次元セグメント化の結果について述べる。
論文 参考訳(メタデータ) (2021-08-09T10:17:27Z) - ABD-Net: Attention Based Decomposition Network for 3D Point Cloud
Decomposition [1.3999481573773074]
本稿では,ポイントクラウド分解のためのアテンションベース分解ネットワーク(ABD-Net)を提案する。
点雲の原始形状に基づく注意特徴を用いた3次元オブジェクト分類の性能向上を示す。
論文 参考訳(メタデータ) (2021-07-09T08:39:30Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。