論文の概要: 3D Object Classification on Partial Point Clouds: A Practical
Perspective
- arxiv url: http://arxiv.org/abs/2012.10042v2
- Date: Wed, 23 Dec 2020 02:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:13:58.035248
- Title: 3D Object Classification on Partial Point Clouds: A Practical
Perspective
- Title(参考訳): 部分点雲上の3次元物体分類 : 実用的展望
- Authors: Zelin Xu, Ke Chen, Tong Zhang, C. L. Philip Chen, Kui Jia
- Abstract要約: 点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 91.81377258830703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A point cloud is a popular shape representation adopted in 3D object
classification, which covers the whole surface of an object and is usually well
aligned. However, such an assumption can be invalid in practice, as point
clouds collected in real-world scenarios are typically scanned from visible
object parts observed under arbitrary SO(3) viewpoint, which are thus
incomplete due to self and inter-object occlusion. In light of this, this paper
introduces a practical setting to classify partial point clouds of object
instances under any poses. Compared to the classification of complete object
point clouds, such a problem is made more challenging in view of geometric
similarities of local shape across object classes and intra-class
dissimilarities of geometries restricted by their observation view. We consider
that specifying the location of partial point clouds on their object surface is
essential to alleviate suffering from the aforementioned challenges, which can
be solved via an auxiliary task of 6D object pose estimation. To this end, a
novel algorithm in an alignment-classification manner is proposed in this
paper, which consists of an alignment module predicting object pose for the
rigid transformation of visible point clouds to their canonical pose and a
typical point classifier such as PointNet++ and DGCNN. Experiment results on
the popular ModelNet40 and ScanNet datasets, which are adapted to a single-view
partial setting, demonstrate the proposed method can outperform three
alternative schemes extended from representative point cloud classifiers for
complete point clouds.
- Abstract(参考訳): 点雲(英: point cloud)は、物体の表面全体を覆う3dオブジェクト分類で採用されている一般的な形状表現である。
しかし、現実のシナリオで収集された点雲は、任意のSO(3)視点で観察される可視的な対象部分からスキャンされるため、実際にはそのような仮定は無効である。
そこで本研究では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実用的な設定を提案する。
完全な対象点雲の分類と比較すると、対象クラス間の局所形状の幾何学的類似性と、観測ビューによって制限される測地線のクラス内異同性の観点から、この問題はより困難なものとなっている。
対象物表面における部分点雲の位置を特定することは、上記の課題を軽減し、6次元オブジェクトのポーズ推定の補助的タスクによって解決できると考える。
そこで本論文では, 可視点雲の正準姿勢への剛性変換のためのアライメントモジュール予測オブジェクトと, PointNet++ や DGCNN などの典型的な点分類器からなるアライメント分類方式のアルゴリズムを提案する。
単一ビューの部分的な設定に適応したModelNet40およびScanNetデータセットの実験結果から、提案手法は、全点クラウドの代表的なクラウド分類器から拡張された3つの代替スキームより優れていることを示した。
関連論文リスト
- Topologically Persistent Features-based Object Recognition in Cluttered
Indoor Environments [1.2691047660244335]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって困難な問題である。
本研究では,物体点雲の3次元形状を捉えるスライシングに基づく新しいトポロジカルディスクリプタを提案する。
これは、隠蔽対象のディスクリプタとそれに対応する非隠蔽対象との類似性を生じさせ、オブジェクトのユニティに基づく認識を可能にする。
論文 参考訳(メタデータ) (2022-05-16T07:01:16Z) - GPV-Pose: Category-level Object Pose Estimation via Geometry-guided
Point-wise Voting [103.74918834553249]
GPV-Poseはロバストなカテゴリーレベルのポーズ推定のための新しいフレームワークである。
幾何学的洞察を利用して、カテゴリーレベルのポーズ感応的特徴の学習を強化する。
一般的な公開ベンチマークにおいて、最先端の競合相手に優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-03-15T13:58:50Z) - Towards Self-Supervised Category-Level Object Pose and Size Estimation [121.28537953301951]
本研究は,一深度画像からのカテゴリレベルのオブジェクトポーズとサイズ推定のための自己教師型フレームワークを提案する。
我々は、同じ形状の点雲における幾何学的整合性を利用して自己超越する。
論文 参考訳(メタデータ) (2022-03-06T06:02:30Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - Leveraging SE(3) Equivariance for Self-Supervised Category-Level Object
Pose Estimation [30.04752448942084]
カテゴリーレベルのオブジェクトポーズ推定は、オブジェクトCADモデルにアクセスすることなく、既知のカテゴリから未確認のオブジェクトインスタンスの6Dオブジェクトポーズを見つけることを目的としている。
本研究では,1つの3次元点群からカテゴリレベルの6次元オブジェクトのポーズを推定する自己教師型学習フレームワークを初めて提案する。
論文 参考訳(メタデータ) (2021-10-30T06:46:44Z) - ABD-Net: Attention Based Decomposition Network for 3D Point Cloud
Decomposition [1.3999481573773074]
本稿では,ポイントクラウド分解のためのアテンションベース分解ネットワーク(ABD-Net)を提案する。
点雲の原始形状に基づく注意特徴を用いた3次元オブジェクト分類の性能向上を示す。
論文 参考訳(メタデータ) (2021-07-09T08:39:30Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - ODFNet: Using orientation distribution functions to characterize 3D
point clouds [0.0]
点まわりの点配向分布を利用して、点群の表現力のある局所近傍表現を得ます。
新しい ODFNet モデルは ModelNet40 と ScanObjectNN データセットのオブジェクト分類における最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-12-08T19:54:20Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。