論文の概要: Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion
- arxiv url: http://arxiv.org/abs/2212.00564v1
- Date: Thu, 1 Dec 2022 15:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:22:49.729377
- Title: Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion
- Title(参考訳): 教師なし3Dポイントクラウドコンプリートのためのシングルビュー画像の活用
- Authors: Lintai Wu, Qijian Zhang, Junhui Hou, and Yong Xu
- Abstract要約: Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
予測点雲の形状を導出するために,物体の予測点を2次元平面に投影し,そのシルエットマップの前景画素を使用する。
- 参考スコア(独自算出の注目度): 51.45906009095078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point clouds captured by scanning devices are often incomplete due to
occlusion. Point cloud completion aims to predict the complete shape based on
its partial input. Existing methods can be classified into supervised and
unsupervised methods. However, both of them require a large number of 3D
complete point clouds, which are difficult to capture. In this paper, we
propose Cross-PCC, an unsupervised point cloud completion method without
requiring any 3D complete point clouds. We only utilize 2D images of the
complete objects, which are easier to capture than 3D complete and clean point
clouds. Specifically, to take advantage of the complementary information from
2D images, we use a single-view RGB image to extract 2D features and design a
fusion module to fuse the 2D and 3D features extracted from the partial point
cloud. To guide the shape of predicted point clouds, we project the predicted
points of the object to the 2D plane and use the foreground pixels of its
silhouette maps to constrain the position of the projected points. To reduce
the outliers of the predicted point clouds, we propose a view calibrator to
move the points projected to the background into the foreground by the
single-view silhouette image. To the best of our knowledge, our approach is the
first point cloud completion method that does not require any 3D supervision.
The experimental results of our method are superior to those of the
state-of-the-art unsupervised methods by a large margin. Moreover, compared to
some supervised methods, our method achieves similar performance. We will make
the source code publicly available at https://github.com/ltwu6/cross-pcc.
- Abstract(参考訳): 走査デバイスによって捕獲される点雲はしばしば閉塞のため不完全である。
ポイントクラウド補完は、部分的な入力に基づいて完全な形状を予測することを目的としている。
既存のメソッドは教師なしメソッドと教師なしメソッドに分類できる。
しかし、どちらも多くの3D完全点雲を必要としており、捕獲は困難である。
本稿では,3次元完全点雲を必要としない非教師付き点雲補完手法であるCross-PCCを提案する。
3d completeやclean point cloudよりもキャプチャが容易な完全オブジェクトの2dイメージのみを利用する。
具体的には,2d画像からの補足情報を活用するために,単視点rgb画像を用いて2d特徴を抽出し,部分点クラウドから抽出した2d特徴と3d特徴を融合する融合モジュールを設計する。
予測された点雲の形状を導くために、予測された物体の点を2次元平面に投影し、シルエットマップの前景画素を用いて投影された点の位置を制約する。
予測された点雲の外れ値を減らすために,背景に投影された点を単一視点シルエット画像によりフォアグラウンドで移動させるビューキャリブレータを提案する。
私たちの知る限りでは、私たちのアプローチは3Dの監督を必要としない最初のポイントクラウド補完手法です。
本手法の実験結果は,最先端の非教師なし手法よりも大きなマージンで優れている。
さらに, 教師付き手法と比較して, 同様の性能を実現する。
ソースコードはhttps://github.com/ltwu6/cross-pcc.comで公開します。
関連論文リスト
- Adapt PointFormer: 3D Point Cloud Analysis via Adapting 2D Visual Transformers [38.08724410736292]
本稿では,3次元ポイントクラウド解析の課題を達成するために,2次元事前知識を持つ事前学習モデルの活用を試みる。
本稿では,適応ポイントフォーマー (APF) を提案する。
論文 参考訳(メタデータ) (2024-07-18T06:32:45Z) - Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Intrinsic Image Decomposition Using Point Cloud Representation [13.771632868567277]
本稿では3次元クラウドデータを利用してアルベドとシェーディングマップを同時に推定するPoint Intrinsic Net(PoInt-Net)を紹介する。
PoInt-Netは効率的で、任意のサイズのポイントクラウドで一貫したパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-20T14:51:28Z) - CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D
Point Cloud Understanding [2.8661021832561757]
CrossPointは、転送可能な3Dポイントクラウド表現を学習するための、単純なクロスモーダルコントラスト学習アプローチである。
提案手法は,従来の教師なし学習手法よりも,3次元オブジェクト分類やセグメンテーションなど,さまざまな下流タスクにおいて優れていた。
論文 参考訳(メタデータ) (2022-03-01T18:59:01Z) - Unsupervised Learning of Fine Structure Generation for 3D Point Clouds
by 2D Projection Matching [66.98712589559028]
微細な構造を持つ3次元点雲生成のための教師なしアプローチを提案する。
本手法は2次元シルエット画像から異なる解像度で微細な3次元構造を復元することができる。
論文 参考訳(メタデータ) (2021-08-08T22:15:31Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks [53.71440550507745]
2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
論文 参考訳(メタデータ) (2020-05-05T04:25:16Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。