論文の概要: Rethinking Multimodal Point Cloud Completion: A Completion-by-Correction Perspective
- arxiv url: http://arxiv.org/abs/2511.12170v1
- Date: Sat, 15 Nov 2025 11:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.653924
- Title: Rethinking Multimodal Point Cloud Completion: A Completion-by-Correction Perspective
- Title(参考訳): マルチモーダル・ポイント・クラウド・コンプリート再考:コンプリート・バイ・コレクトの視点から
- Authors: Wang Luo, Di Wu, Hengyuan Na, Yinlin Zhu, Miao Hu, Guocong Quan,
- Abstract要約: ポイント雲の完成は、部分的な観測から完全な3次元形状を再構築することを目的としている。
ほとんどのメソッドは、いまだにCompletion-by-Inpaintingパラダイムに従っている。
完全形状から始まるコンプリーション・バイ・コレクション(Completion-by-Correction)を提案する。
- 参考スコア(独自算出の注目度): 8.276620253870338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud completion aims to reconstruct complete 3D shapes from partial observations, which is a challenging problem due to severe occlusions and missing geometry. Despite recent advances in multimodal techniques that leverage complementary RGB images to compensate for missing geometry, most methods still follow a Completion-by-Inpainting paradigm, synthesizing missing structures from fused latent features. We empirically show that this paradigm often results in structural inconsistencies and topological artifacts due to limited geometric and semantic constraints. To address this, we rethink the task and propose a more robust paradigm, termed Completion-by-Correction, which begins with a topologically complete shape prior generated by a pretrained image-to-3D model and performs feature-space correction to align it with the partial observation. This paradigm shifts completion from unconstrained synthesis to guided refinement, enabling structurally consistent and observation-aligned reconstruction. Building upon this paradigm, we introduce PGNet, a multi-stage framework that conducts dual-feature encoding to ground the generative prior, synthesizes a coarse yet structurally aligned scaffold, and progressively refines geometric details via hierarchical correction. Experiments on the ShapeNetViPC dataset demonstrate the superiority of PGNet over state-of-the-art baselines in terms of average Chamfer Distance (-23.5%) and F-score (+7.1%).
- Abstract(参考訳): ポイント雲の完成は、部分的な観測から完全な3次元形状を再構築することを目的としている。
相補的なRGB画像を利用して幾何を補うマルチモーダル技術は近年進歩しているが、ほとんどの手法は依然としてコンプリート・バイ・インペインティングのパラダイムに従っており、融合した潜在特徴から欠落した構造を合成している。
このパラダイムは、幾何学的制約や意味的制約が限定されているため、しばしば構造上の矛盾や位相的アーティファクトをもたらすことを実証的に示す。
そこで我々は,この課題を再考し,より堅牢なコンプリーション・バイ・コレクション(Completion-by-Correction)というパラダイムを提案する。
このパラダイムは、完成を制約のない合成からガイド付き精製へとシフトさせ、構造的に一貫性があり、観察に整合した再構築を可能にする。
このパラダイムを基盤として、PGNetは、生成前の基礎となる二重機能符号化を行い、粗いが構造的に整合した足場を合成し、階層的補正によって幾何的詳細を段階的に洗練する多段階のフレームワークである。
ShapeNetViPCデータセットの実験は、平均的なチャンファー距離 (-23.5%) とFスコア (+7.1%) でPGNetが最先端のベースラインよりも優れていることを示した。
関連論文リスト
- KineDiff3D: Kinematic-Aware Diffusion for Category-Level Articulated Object Shape Reconstruction and Generation [28.822034731724013]
ノートパソコンや引き出しなどのアーティキュレートオブジェクトは、3D再構成とポーズ推定において重要な課題を示す。
そこで我々は, KineDiff3D: Kinematic-Aware Diffusion for Category-Level Articulated Object Shape Reconstruction and Generationを提案する。
論文 参考訳(メタデータ) (2025-10-20T04:15:40Z) - G4Splat: Geometry-Guided Gaussian Splatting with Generative Prior [53.762256749551284]
我々は,3次元シーン再構成を効果的に活用するための基本的な前提条件として,正確な幾何学を同定する。
生成パイプライン全体にこの幾何学的ガイダンスを導入し、可視性マスク推定を改善し、新しいビュー選択をガイドし、ビデオ拡散モデルに着色した場合の多視点一貫性を向上させる。
本手法は,屋内および屋外の両方のシナリオにおいて,高い一般化性を有するシングルビュー入力とアンポーズ映像を自然にサポートする。
論文 参考訳(メタデータ) (2025-10-14T03:06:28Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - CAGE: Continuity-Aware edGE Network Unlocks Robust Floorplan Reconstruction [24.09888364478496]
我々は,点-雲密度マップから直接ベクトルフロアプランを再構築する堅牢なフレームワークであるCAGEを提案する。
CAGEは最先端のパフォーマンスを達成し、F1スコアは99.1%(部屋)、91.7%(コーナー)、89.3%(角度)である。
論文 参考訳(メタデータ) (2025-09-18T22:10:37Z) - Seeing 3D Through 2D Lenses: 3D Few-Shot Class-Incremental Learning via Cross-Modal Geometric Rectification [59.17489431187807]
本稿では,CLIPの階層的空間意味論を活用することで3次元幾何学的忠実度を高めるフレームワークを提案する。
本手法は3次元のクラスインクリメンタル学習を著しく改善し,テクスチャバイアスに対して優れた幾何コヒーレンスとロバスト性を実現する。
論文 参考訳(メタデータ) (2025-09-18T13:45:08Z) - Matching Shapes Under Different Topologies: A Topology-Adaptive Deformation Guided Approach [6.851721795186258]
非厳密な3Dメッシュマッチングは、コンピュータビジョンとコンピュータグラフィックスパイプラインにおける重要なステップである。
トポロジカルアーティファクトを含むメッシュに取り組み、現在のアプローチによる仮定を破ることができる。
私たちは、しばしばトポロジカルなアーティファクトに悩まされる、フレームごとのマルチビュー再構築のような現実世界のシナリオに動機付けられています。
提案手法は, 従来のデータ駆動手法に頼らず, 3次元アライメント品質の大規模データセットでトレーニングした手法よりも, ノイズの多いフレーム単位のマルチビュー再構成を含む, トポロジカルアーチファクトの非等尺形状や形状に適用される。
論文 参考訳(メタデータ) (2025-09-08T16:29:44Z) - Adaptive Point-Prompt Tuning: Fine-Tuning Heterogeneous Foundation Models for 3D Point Cloud Analysis [51.37795317716487]
本稿では,パラメータの少ない事前学習モデルを微調整するAdaptive Point-Prompt Tuning (APPT)法を提案する。
局所幾何学を集約することで原点雲を点埋め込みに変換し、空間的特徴を捉える。
任意のモダリティのソース領域から3Dへの自己アテンションを校正するために,重みを点埋め込みモジュールと共有するプロンプトジェネレータを導入する。
論文 参考訳(メタデータ) (2025-08-30T06:02:21Z) - Dens3R: A Foundation Model for 3D Geometry Prediction [44.13431776180547]
Dens3Rは幾何学的密度予測のための3次元基礎モデルである。
画像対マッチング機能と本質的不変性モデリングを統合することにより、Dens3Rは複数の幾何学的量を正確に回帰する。
論文 参考訳(メタデータ) (2025-07-22T07:22:30Z) - SCORP: Scene-Consistent Object Refinement via Proxy Generation and Tuning [46.441761732998536]
プロキシジェネレーションとチューニング(SCORP)によるシーン一貫性オブジェクトリファインメント(Scene-Consistent Object Refinement)について紹介する。
SCORP は、3D 生成に先立って細粒度なオブジェクトの形状と外観を復元する新しい3D拡張フレームワークである。
これは、新しいビュー合成と幾何完成タスクの両方において、最近の最先端のベースラインに対して一貫した利得を達成する。
論文 参考訳(メタデータ) (2025-06-30T13:26:21Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。