論文の概要: Zero-shot Point Cloud Completion Via 2D Priors
- arxiv url: http://arxiv.org/abs/2404.06814v1
- Date: Wed, 10 Apr 2024 08:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:10:01.528664
- Title: Zero-shot Point Cloud Completion Via 2D Priors
- Title(参考訳): ゼロショットのクラウドコンプリートが2Dに
- Authors: Tianxin Huang, Zhiwen Yan, Yuyang Zhao, Gim Hee Lee,
- Abstract要約: 3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
そこで本研究では, 観測された点群を対象とするゼロショットフレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.72867922938023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud completion is designed to recover complete shapes from partially observed point clouds. Conventional completion methods typically depend on extensive point cloud data for training %, with their effectiveness often constrained to object categories similar to those seen during training. In contrast, we propose a zero-shot framework aimed at completing partially observed point clouds across any unseen categories. Leveraging point rendering via Gaussian Splatting, we develop techniques of Point Cloud Colorization and Zero-shot Fractal Completion that utilize 2D priors from pre-trained diffusion models to infer missing regions. Experimental results on both synthetic and real-world scanned point clouds demonstrate that our approach outperforms existing methods in completing a variety of objects without any requirement for specific training data.
- Abstract(参考訳): 3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
従来のコンプリート手法は、トレーニングで見られるようなオブジェクトカテゴリに制約されることが多いため、トレーニングのために広範囲のクラウドデータに依存するのが一般的である。
これとは対照的に, 観測された点群を未確認のカテゴリで完結させるため, ゼロショットフレームワークを提案する。
ガウススプラッティングによる点レンダリングを活用して,事前学習した拡散モデルから2次元事前学習を利用した点雲色化法とゼロショットフラクタル補完法を開発し,欠測領域を推定する。
実世界の走査された点群と実世界の走査された点群の両方に対する実験結果から,本手法は特定の訓練データを必要としない様々な物体の完成において,既存の手法よりも優れていることが示された。
関連論文リスト
- Zero-Shot Point Cloud Registration [94.39796531154303]
ZeroRegは、ポイントクラウドデータセットのトレーニングを不要にする最初のゼロショットポイントクラウド登録アプローチである。
ZeroRegの基盤は、キーポイントからポイントクラウドへの画像特徴の新たな移行であり、三次元幾何学的近傍からの情報を集約することによって強化されている。
3DMatch、3DLoMatch、ScanNetなどのベンチマークでは、ZeroRegはそれぞれ84%、46%、75%という印象的なリコール比(RR)を達成した。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - P2C: Self-Supervised Point Cloud Completion from Single Partial Clouds [44.02541315496045]
ポイント雲の完成は、部分的な観測に基づいて完全な形状を復元することを目的としている。
既存の手法では、学習には完全な点雲か、同じ物体の複数の部分的な観察が必要である。
Part2Completeは、ポイントクラウドオブジェクトを補完する最初の自己管理型フレームワークです。
論文 参考訳(メタデータ) (2023-07-27T09:31:01Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Reconstruction-Aware Prior Distillation for Semi-supervised Point Cloud
Completion [10.649666758735663]
現実世界のセンサーは、しばしば不完全で不規則でノイズの多い点雲を発生させる。
本稿では,新しい半教師付き点雲補完法であるRADを提案する。
論文 参考訳(メタデータ) (2022-04-20T02:14:20Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Point Set Voting for Partial Point Cloud Analysis [26.31029112502835]
近年、ポイントクラウドの分類とセグメンテーションのための技術は、大きな合成データセットを活用することで、驚くべきパフォーマンスを実現している。
本稿では, 局所点集合投票戦略を適用して, 完全点群を符号化した潜在特徴を推定する部分点群解析の一般モデルを提案する。
論文 参考訳(メタデータ) (2020-07-09T03:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。