論文の概要: SVGA-Net: Sparse Voxel-Graph Attention Network for 3D Object Detection
from Point Clouds
- arxiv url: http://arxiv.org/abs/2006.04043v2
- Date: Thu, 23 Dec 2021 13:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:14:19.311881
- Title: SVGA-Net: Sparse Voxel-Graph Attention Network for 3D Object Detection
from Point Clouds
- Title(参考訳): SVGA-Net:ポイントクラウドからの3次元物体検出のためのスパースVoxel-Graphアテンションネットワーク
- Authors: Qingdong He, Zhengning Wang, Hao Zeng, Yi Zeng, Yijun Liu
- Abstract要約: 生のLIDARデータから同等の3D検出タスクを実現するために,Sparse Voxel-Graph Attention Network (SVGA-Net)を提案する。
SVGA-Netは、分割された3次元球面ボクセルと、すべてのボクセルを通してグローバルなKNNグラフ内の局所完備グラフを構成する。
KITTI検出ベンチマークの実験は、グラフ表現を3次元オブジェクト検出に拡張する効率を実証している。
- 参考スコア(独自算出の注目度): 8.906003527848636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D object detection from point clouds has become a crucial component
in autonomous driving. However, the volumetric representations and the
projection methods in previous works fail to establish the relationships
between the local point sets. In this paper, we propose Sparse Voxel-Graph
Attention Network (SVGA-Net), a novel end-to-end trainable network which mainly
contains voxel-graph module and sparse-to-dense regression module to achieve
comparable 3D detection tasks from raw LIDAR data. Specifically, SVGA-Net
constructs the local complete graph within each divided 3D spherical voxel and
global KNN graph through all voxels. The local and global graphs serve as the
attention mechanism to enhance the extracted features. In addition, the novel
sparse-to-dense regression module enhances the 3D box estimation accuracy
through feature maps aggregation at different levels. Experiments on KITTI
detection benchmark demonstrate the efficiency of extending the graph
representation to 3D object detection and the proposed SVGA-Net can achieve
decent detection accuracy.
- Abstract(参考訳): 点雲からの正確な3Dオブジェクト検出は、自動運転において重要な要素となっている。
しかし、以前の研究における体積表現と射影法は局所点集合の間の関係を確立できない。
本稿では,Voxel-graphモジュールとSparse-to-Denseレグレッションモジュールを主成分とする新たなエンドツーエンドトレーニングネットワークであるSparse Voxel-Graph Attention Network (SVGA-Net)を提案する。
具体的には、SVGA-Netは、分割された3次元球面ボクセルとすべてのボクセルを通してグローバルなKNNグラフ内の局所完備グラフを構成する。
局所グラフとグローバルグラフは、抽出された特徴を強化するための注意機構として機能する。
さらに,新しいsparse-to-denseレグレッションモジュールは,異なるレベルにおける特徴マップアグリゲーションを通じて,3次元ボックス推定精度を向上させる。
KITTI検出ベンチマークの実験では、グラフ表現を3次元オブジェクト検出に拡張する効率が実証され、提案したSVGA-Netは十分な検出精度が得られる。
関連論文リスト
- CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Graph R-CNN: Towards Accurate 3D Object Detection with
Semantic-Decorated Local Graph [26.226885108862735]
2段検出器は3次元物体検出で大いに人気を博している。
ほとんどの2段式3D検出器は、2段目のRoI特徴抽出にグリッドポイント、ボクセルグリッド、またはサンプルキーポイントを利用する。
本稿ではこの問題を3つの側面で解決する。
論文 参考訳(メタデータ) (2022-08-07T02:56:56Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - H3D: Benchmark on Semantic Segmentation of High-Resolution 3D Point
Clouds and textured Meshes from UAV LiDAR and Multi-View-Stereo [4.263987603222371]
本稿では,3つの方法でユニークな3次元データセットを提案する。
ヘシグハイム(ドイツ語: Hessigheim, H3D)は、ドイツの都市。
片手で3次元データ分析の分野での研究を促進するとともに、新しいアプローチの評価とランク付けを目的としている。
論文 参考訳(メタデータ) (2021-02-10T09:33:48Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - Dynamic Edge Weights in Graph Neural Networks for 3D Object Detection [0.0]
本稿では,LiDARスキャンにおける物体検出のためのグラフニューラルネットワーク(GNN)における注目に基づく特徴集約手法を提案する。
GNNの各層では、ノードごとの入力特徴を対応する上位特徴にマッピングする線形変換とは別に、ノードごとの注意を隠蔽する。
KITTIデータセットを用いた実験により,本手法は3次元物体検出に匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2020-09-17T12:56:17Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud [3.04585143845864]
本稿では,LiDAR点雲から物体を検出するグラフニューラルネットワークを提案する。
我々は、その点雲を近辺の固定半径グラフに効率よくエンコードする。
Point-GNNでは,翻訳のばらつきを低減する自動登録機構を提案する。
論文 参考訳(メタデータ) (2020-03-02T23:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。