論文の概要: H3DNet: 3D Object Detection Using Hybrid Geometric Primitives
- arxiv url: http://arxiv.org/abs/2006.05682v3
- Date: Thu, 23 Jul 2020 19:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 05:52:20.780360
- Title: H3DNet: 3D Object Detection Using Hybrid Geometric Primitives
- Title(参考訳): h3dnet:ハイブリッド幾何プリミティブを用いた3次元物体検出
- Authors: Zaiwei Zhang, Bo Sun, Haitao Yang, Qixing Huang
- Abstract要約: H3DNetは、無色の3Dポイントクラウドを入力として取り、オブジェクト指向オブジェクト境界ボックス(BB)とそのセマンティックラベルのコレクションを出力する。
オブジェクトと幾何学的プリミティブ間の距離関数を定義することにより、予測された幾何学的プリミティブをオブジェクト提案に変換する方法を示す。
本モデルでは,ScanNetとSUN RGB-Dの2つの大規模データセットに対して,最先端の3D検出結果が得られた。
- 参考スコア(独自算出の注目度): 32.58136293760693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce H3DNet, which takes a colorless 3D point cloud as input and
outputs a collection of oriented object bounding boxes (or BB) and their
semantic labels. The critical idea of H3DNet is to predict a hybrid set of
geometric primitives, i.e., BB centers, BB face centers, and BB edge centers.
We show how to convert the predicted geometric primitives into object proposals
by defining a distance function between an object and the geometric primitives.
This distance function enables continuous optimization of object proposals, and
its local minimums provide high-fidelity object proposals. H3DNet then utilizes
a matching and refinement module to classify object proposals into detected
objects and fine-tune the geometric parameters of the detected objects. The
hybrid set of geometric primitives not only provides more accurate signals for
object detection than using a single type of geometric primitives, but it also
provides an overcomplete set of constraints on the resulting 3D layout.
Therefore, H3DNet can tolerate outliers in predicted geometric primitives. Our
model achieves state-of-the-art 3D detection results on two large datasets with
real 3D scans, ScanNet and SUN RGB-D.
- Abstract(参考訳): 我々は,無色の3D点雲を入力とし,オブジェクト指向オブジェクト境界ボックス(BB)とその意味ラベルの集合を出力するH3DNetを紹介する。
H3DNetの批判的アイデアは、BBセンター、BBフェイスセンター、BBエッジセンターといった幾何学的原始体のハイブリッドセットを予測することである。
オブジェクトと幾何学的プリミティブ間の距離関数を定義することにより、予測された幾何学的プリミティブをオブジェクト提案に変換する方法を示す。
この距離関数はオブジェクトの提案の連続的な最適化を可能にし、その局所最小値は高い忠実度オブジェクトの提案を提供する。
h3dnetはマッチングと精細化モジュールを使用して、検出されたオブジェクトにオブジェクトの提案を分類し、検出されたオブジェクトの幾何学的パラメータを微調整する。
幾何プリミティブのハイブリッドセットは、単一のタイプの幾何プリミティブを使用するよりも、オブジェクト検出のためのより正確な信号を提供するだけでなく、結果の3dレイアウトに対する過剰な制約も提供する。
したがって、h3dnetは予測幾何学的プリミティブの異常を許容することができる。
本モデルでは,ScanNetとSUN RGB-Dの2つの大規模データセットに対して,最先端の3D検出結果を実現する。
関連論文リスト
- MonoDGP: Monocular 3D Object Detection with Decoupled-Query and Geometry-Error Priors [24.753860375872215]
本稿では,MonoDGPと呼ばれるトランスフォーマーを用いたモノクロ3Dオブジェクト検出手法を提案する。
射影公式を変更するために、パースペクティブ不変幾何誤差を採用する。
提案手法は, 余分なデータを必要としないKITTIベンチマークにおいて, 最先端の性能を示す。
論文 参考訳(メタデータ) (2024-10-25T14:31:43Z) - Explicit3D: Graph Network with Spatial Inference for Single Image 3D
Object Detection [35.85544715234846]
本稿では,オブジェクトの幾何学的特徴と意味論的特徴に基づいて,Explicit3Dという動的スパースグラフパイプラインを提案する。
SUN RGB-Dデータセットによる実験結果から,我々のExplicit3Dは最先端技術よりも優れた性能バランスを実現することが示された。
論文 参考訳(メタデータ) (2023-02-13T16:19:54Z) - Zero-shot point cloud segmentation by transferring geometric primitives [68.18710039217336]
ゼロショットポイントクラウドセマンティックセマンティックセマンティックセマンティクスについて検討し、そこではネットワークが見えないオブジェクトに対してトレーニングされ、見えないオブジェクトをセマンティクスできる。
本研究では,視覚的および視覚的カテゴリーのオブジェクトで共有される幾何学的プリミティブを学習し,言語と学習された幾何学的プリミティブとの微粒なアライメントを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-18T15:06:54Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Object-Aware Centroid Voting for Monocular 3D Object Detection [30.59728753059457]
本研究では, 深度を学習することなく, 終端から終端までトレーニング可能な単分子3次元物体検出器を提案する。
領域的外見の注意と幾何学的射影分布の両面を考慮した,新しいオブジェクト認識型投票手法が導入された。
遅延融合と予測される3D方向と次元により、オブジェクトの3D境界ボックスは単一のRGB画像から検出できる。
論文 参考訳(メタデータ) (2020-07-20T02:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。