論文の概要: Zero-shot Point Cloud Completion Via 2D Priors
- arxiv url: http://arxiv.org/abs/2404.06814v1
- Date: Wed, 10 Apr 2024 08:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:10:01.528664
- Title: Zero-shot Point Cloud Completion Via 2D Priors
- Title(参考訳): ゼロショットのクラウドコンプリートが2Dに
- Authors: Tianxin Huang, Zhiwen Yan, Yuyang Zhao, Gim Hee Lee,
- Abstract要約: 3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
そこで本研究では, 観測された点群を対象とするゼロショットフレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.72867922938023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud completion is designed to recover complete shapes from partially observed point clouds. Conventional completion methods typically depend on extensive point cloud data for training %, with their effectiveness often constrained to object categories similar to those seen during training. In contrast, we propose a zero-shot framework aimed at completing partially observed point clouds across any unseen categories. Leveraging point rendering via Gaussian Splatting, we develop techniques of Point Cloud Colorization and Zero-shot Fractal Completion that utilize 2D priors from pre-trained diffusion models to infer missing regions. Experimental results on both synthetic and real-world scanned point clouds demonstrate that our approach outperforms existing methods in completing a variety of objects without any requirement for specific training data.
- Abstract(参考訳): 3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
従来のコンプリート手法は、トレーニングで見られるようなオブジェクトカテゴリに制約されることが多いため、トレーニングのために広範囲のクラウドデータに依存するのが一般的である。
これとは対照的に, 観測された点群を未確認のカテゴリで完結させるため, ゼロショットフレームワークを提案する。
ガウススプラッティングによる点レンダリングを活用して,事前学習した拡散モデルから2次元事前学習を利用した点雲色化法とゼロショットフラクタル補完法を開発し,欠測領域を推定する。
実世界の走査された点群と実世界の走査された点群の両方に対する実験結果から,本手法は特定の訓練データを必要としない様々な物体の完成において,既存の手法よりも優れていることが示された。
関連論文リスト
- Occlusion-aware Text-Image-Point Cloud Pretraining for Open-World 3D Object Recognition [27.70464285941205]
我々は3次元オブジェクト認識のためのテキストイメージポイントクラウド事前学習フレームワークを開発した。
点雲に適した2ストリーム線形状態空間モデルであるDuoMambaについても紹介する。
私たちのフレームワークで事前トレーニングを行うと、DuoMambaは現在の最先端メソッドを超え、レイテンシとFLOPを削減します。
論文 参考訳(メタデータ) (2025-02-15T04:58:21Z) - PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - P2C: Self-Supervised Point Cloud Completion from Single Partial Clouds [44.02541315496045]
ポイント雲の完成は、部分的な観測に基づいて完全な形状を復元することを目的としている。
既存の手法では、学習には完全な点雲か、同じ物体の複数の部分的な観察が必要である。
Part2Completeは、ポイントクラウドオブジェクトを補完する最初の自己管理型フレームワークです。
論文 参考訳(メタデータ) (2023-07-27T09:31:01Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Point-Syn2Real: Semi-Supervised Synthetic-to-Real Cross-Domain Learning
for Object Classification in 3D Point Clouds [14.056949618464394]
LiDAR 3Dポイントクラウドデータを用いたオブジェクト分類は、自律運転のような現代的なアプリケーションにとって重要である。
本稿では,ポイントクラウドのマニュアルアノテーションに依存しない半教師付きクロスドメイン学習手法を提案する。
我々は、ポイントクラウド上でのクロスドメイン学習のための新しいベンチマークデータセットであるPoint-Syn2Realを紹介した。
論文 参考訳(メタデータ) (2022-10-31T01:53:51Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。