論文の概要: 3DPVNet: Patch-level 3D Hough Voting Network for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2009.06887v1
- Date: Tue, 15 Sep 2020 06:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:15:39.033311
- Title: 3DPVNet: Patch-level 3D Hough Voting Network for 6D Pose Estimation
- Title(参考訳): 3dpvnet: 6次元ポーズ推定のためのパッチレベルの3dハフ投票ネットワーク
- Authors: Yuanpeng Liu, Jun Zhou, Yuqi Zhang, Chao Ding, Jun Wang
- Abstract要約: オブジェクト6Dポーズの投票に3Dローカルパッチを利用する3DPVNetが提案されている。
最近の投票方式と比較して、3DPVNetはパッチレベルであり、ポイントクラウド上で直接実行される。
- 参考スコア(独自算出の注目度): 15.114857669938795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on estimating the 6D pose of objects in point clouds.
Although the topic has been widely studied, pose estimation in point clouds
remains a challenging problem due to the noise and occlusion. To address the
problem, a novel 3DPVNet is presented in this work, which utilizes 3D local
patches to vote for the object 6D poses. 3DPVNet is comprised of three modules.
In particular, a Patch Unification (\textbf{PU}) module is first introduced to
normalize the input patch, and also create a standard local coordinate frame on
it to generate a reliable vote. We then devise a Weight-guided Neighboring
Feature Fusion (\textbf{WNFF}) module in the network, which fuses the
neighboring features to yield a semi-global feature for the center patch. WNFF
module mines the neighboring information of a local patch, such that the
representation capability to local geometric characteristics is significantly
enhanced, making the method robust to a certain level of noise. Moreover, we
present a Patch-level Voting (\textbf{PV}) module to regress transformations
and generates pose votes. After the aggregation of all votes from patches and a
refinement step, the final pose of the object can be obtained. Compared to
recent voting-based methods, 3DPVNet is patch-level, and directly carried out
on point clouds. Therefore, 3DPVNet achieves less computation than
point/pixel-level voting scheme, and has robustness to partial data.
Experiments on several datasets demonstrate that 3DPVNet achieves the
state-of-the-art performance, and is also robust against noise and occlusions.
- Abstract(参考訳): 本稿では,点雲中の物体の6次元ポーズを推定することに焦点を当てる。
この話題は広く研究されているが、ノイズや閉塞のため、点雲でのポーズ推定は難しい問題である。
この問題に対処するために、3Dローカルパッチを使用してオブジェクト6Dポーズに投票する新しい3DPVNetを提案する。
3DPVNetは3つのモジュールで構成される。
特に、Patch Unification(\textbf{PU})モジュールが最初に導入され、入力パッチを正規化し、標準のローカル座標フレームを作成して信頼性の高い投票を生成する。
次に、ネットワーク内の重み付き隣り合う特徴フュージョン(\textbf{WNFF})モジュールを考案し、隣り合う特徴を融合させて中心パッチに半グローバルな特徴を与える。
WNFFモジュールは局所的なパッチの隣り合う情報をマイニングし、局所的な幾何学的特徴に対する表現能力が大幅に向上し、あるレベルのノイズに頑健になる。
さらに,パッチレベルの投票 (\textbf{pv}) モジュールを導入し,変換をレグレッションし,投票結果を生成する。
パッチから全ての投票を集計し、改良ステップを施した後、オブジェクトの最終的なポーズを得ることができる。
最近の投票方式と比較して、3DPVNetはパッチレベルであり、ポイントクラウド上で直接実行される。
したがって、3DPVNetは点/画素レベルの投票方式よりも少ない計算を実現し、部分データに対して堅牢である。
いくつかのデータセットの実験では、3DPVNetが最先端のパフォーマンスを実現し、ノイズや閉塞に対して堅牢であることが示された。
関連論文リスト
- 3D Object Detection from Point Cloud via Voting Step Diffusion [52.9966883689137]
既存の投票ベースのメソッドは、個々のオブジェクトの部分的な面から厳しいノイズとともに投票を受け取り、亜最適検出性能をもたらす。
雑音条件付きスコアネットワークを用いて分布のスコア関数を推定することにより、ランダムな3Dポイントを分布の高密度領域へ移動させる新しい手法を提案する。
大規模屋内3DシーンデータセットSUN RGB-DとScanNet V2の実験により,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2024-03-21T05:04:52Z) - PosDiffNet: Positional Neural Diffusion for Point Cloud Registration in
a Large Field of View with Perturbations [27.45001809414096]
PosDiffNetは、3Dコンピュータビジョンにおけるポイントクラウド登録のモデルである。
ベルトラミフローに基づくグラフニューラル偏微分方程式(PDE)を用いて高次元特徴を求める。
我々は、点雲間のアライメントを容易にするために、高特徴類似度スコアから導かれる多レベル対応を用いる。
我々はPosDiffNetを複数の3Dポイントクラウドデータセット上で評価し、摂動を伴う広い視野でのポイントクラウド登録において、最先端(SOTA)性能を達成することを検証した。
論文 参考訳(メタデータ) (2024-01-06T08:58:15Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Back-tracing Representative Points for Voting-based 3D Object Detection
in Point Clouds [42.24217764222523]
back-tracing Representative Points Network (BRNet) と呼ばれる新しい3Dオブジェクト検出手法を提案する。
brnetは投票所から代表ポイントを追跡し、これらの生成したポイントの周りの補完的なシードポイントを再検討する。
当社のBRNetはシンプルで効果的で、2つの大規模ポイントクラウドデータセットの最先端のメソッドを大幅に上回ります。
論文 参考訳(メタデータ) (2021-04-13T11:39:42Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。