論文の概要: Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding
- arxiv url: http://arxiv.org/abs/2111.15363v1
- Date: Tue, 30 Nov 2021 13:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 21:24:58.214734
- Title: Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding
- Title(参考訳): Voint Cloud: 3D理解のためのマルチビューポイントクラウド表現
- Authors: Abdullah Hamdi, Silvio Giancola, Bernard Ghanem
- Abstract要約: 本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
- 参考スコア(独自算出の注目度): 80.04281842702294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-view projection methods have demonstrated promising performance on 3D
understanding tasks like 3D classification and segmentation. However, it
remains unclear how to combine such multi-view methods with the widely
available 3D point clouds. Previous methods use unlearned heuristics to combine
features at the point level. To this end, we introduce the concept of the
multi-view point cloud (Voint cloud), representing each 3D point as a set of
features extracted from several view-points. This novel 3D Voint cloud
representation combines the compactness of 3D point cloud representation with
the natural view-awareness of multi-view representation. Naturally, we can
equip this new representation with convolutional and pooling operations. We
deploy a Voint neural network (VointNet) with a theoretically established
functional form to learn representations in the Voint space. Our novel
representation achieves state-of-the-art performance on 3D classification and
retrieval on ScanObjectNN, ModelNet40, and ShapeNet Core55. Additionally, we
achieve competitive performance for 3D semantic segmentation on ShapeNet Parts.
Further analysis shows that VointNet improves the robustness to rotation and
occlusion compared to other methods.
- Abstract(参考訳): マルチビュー投影法は、3次元分類やセグメンテーションのような3次元理解タスクにおいて有望な性能を示す。
しかし、これらのマルチビューメソッドと広く利用可能な3dポイントクラウドを組み合わせる方法はまだ不明である。
従来の手法では、未学習のヒューリスティックを使ってポイントレベルの特徴を組み合わせる。
この目的のために,複数の視点から抽出した特徴の集合として,各3dポイントを表現するマルチビューポイントクラウド(voint cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
自然に、この新しい表現を畳み込み操作やプール操作と組み合わせることができる。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
本研究では,ScanObjectNN,ModelNet40,ShapeNet Core55の3次元分類と検索における最先端性能を実現する。
さらに,シェープネット部品における3次元意味セグメンテーションの競合性能を実現する。
さらなる分析により、VointNetは他の方法と比較して回転や閉塞に対する堅牢性を改善することが示されている。
関連論文リスト
- Point Cloud Self-supervised Learning via 3D to Multi-view Masked
Autoencoder [21.73287941143304]
Multi-Modality Masked AutoEncoders (MAE) 法は2次元画像と3次元点雲の両方を事前学習に利用している。
本稿では、3次元から多視点のマスク付きオートエンコーダを用いて、3次元点雲のマルチモーダル特性をフル活用する手法を提案する。
提案手法は,様々な下流タスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2023-11-17T22:10:03Z) - Multi-view Vision-Prompt Fusion Network: Can 2D Pre-trained Model Boost
3D Point Cloud Data-scarce Learning? [38.06639044139636]
本研究は,Multi-view Vision-Prompt Fusion Network (MvNet) を提案する。
MvNetは、3Dの複数ショットポイントのクラウドイメージ分類のために、最先端のパフォーマンスを新たに実現している。
論文 参考訳(メタデータ) (2023-04-20T11:39:41Z) - TriVol: Point Cloud Rendering via Triple Volumes [57.305748806545026]
我々は,高密度かつ軽量な3D表現であるTriVolをNeRFと組み合わせて,点雲から写実的な画像を描画する。
我々のフレームワークは、微調整なしでシーン/オブジェクトのカテゴリを描画できる優れた一般化能力を持っている。
論文 参考訳(メタデータ) (2023-03-29T06:34:12Z) - MVTN: Learning Multi-View Transformations for 3D Understanding [60.15214023270087]
本稿では,3次元形状認識のための最適視点を決定するために,可変レンダリングを用いたマルチビュー変換ネットワーク(MVTN)を提案する。
MVTNは3次元形状認識のためのマルチビューネットワークでエンドツーエンドに訓練することができる。
提案手法は,複数のベンチマークによる3次元分類と形状検索における最先端性能を示す。
論文 参考訳(メタデータ) (2022-12-27T12:09:16Z) - PnP-3D: A Plug-and-Play for 3D Point Clouds [38.05362492645094]
本稿では,既存ネットワークのポイントクラウドデータ解析における有効性を改善するために,プラグイン・アンド・プレイモジュール -3D を提案する。
アプローチを徹底的に評価するために,3つの標準的なクラウド分析タスクについて実験を行った。
本研究は,最先端の成果の達成に加えて,我々のアプローチのメリットを実証する包括的研究を提案する。
論文 参考訳(メタデータ) (2021-08-16T23:59:43Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - MVTN: Multi-View Transformation Network for 3D Shape Recognition [80.34385402179852]
本稿では,3次元形状認識のための最適視点を回帰するマルチビュー変換ネットワーク(MVTN)を提案する。
MVTNは3次元形状分類のためのマルチビューネットワークと共に、エンドツーエンドで訓練することができる。
MVTNは3次元形状分類と3次元形状検索のタスクにおいて、余分な訓練監督を必要とせず、明らかな性能向上を示す。
論文 参考訳(メタデータ) (2020-11-26T11:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。