論文の概要: P2M2-Net: Part-Aware Prompt-Guided Multimodal Point Cloud Completion
- arxiv url: http://arxiv.org/abs/2312.17611v1
- Date: Fri, 29 Dec 2023 14:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 09:51:03.342716
- Title: P2M2-Net: Part-Aware Prompt-Guided Multimodal Point Cloud Completion
- Title(参考訳): P2M2-Net: Part-Aware Prompt-Guided Multimodal Point Cloud Completion
- Authors: Linlian Jiang, Pan Chen, Ye Wang, Tieru Wu, Rui Ma
- Abstract要約: 高度に隠蔽された点雲から欠落した領域を推定することは極めて困難である。
本稿では,P2M2-Net を作成した新しいプロンプト誘導ポイントクラウド補完フレームワークを提案する。
入力部分点クラウドと部分認識情報を記述するテキストプロンプトが与えられた場合、Transformerベースの補完ネットワークは、マルチモーダル特徴を効率的に融合させることができる。
- 参考スコア(独自算出の注目度): 6.407066306127476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring missing regions from severely occluded point clouds is highly
challenging. Especially for 3D shapes with rich geometry and structure details,
inherent ambiguities of the unknown parts are existing. Existing approaches
either learn a one-to-one mapping in a supervised manner or train a generative
model to synthesize the missing points for the completion of 3D point cloud
shapes. These methods, however, lack the controllability for the completion
process and the results are either deterministic or exhibiting uncontrolled
diversity. Inspired by the prompt-driven data generation and editing, we
propose a novel prompt-guided point cloud completion framework, coined
P2M2-Net, to enable more controllable and more diverse shape completion. Given
an input partial point cloud and a text prompt describing the part-aware
information such as semantics and structure of the missing region, our
Transformer-based completion network can efficiently fuse the multimodal
features and generate diverse results following the prompt guidance. We train
the P2M2-Net on a new large-scale PartNet-Prompt dataset and conduct extensive
experiments on two challenging shape completion benchmarks. Quantitative and
qualitative results show the efficacy of incorporating prompts for more
controllable part-aware point cloud completion and generation. Code and data
are available at https://github.com/JLU-ICL/P2M2-Net.
- Abstract(参考訳): 厳重に遮蔽された点雲からの欠落領域の推測は非常に困難である。
特に、幾何学や構造の詳細が豊富な3次元形状では、未知の部分の固有の曖昧さが存在する。
既存のアプローチでは、1対1のマッピングを教師ありの方法で学習するか、生成モデルを訓練して3dポイントクラウド形状の完了のための欠失点を合成する。
しかし、これらの方法は完了過程の制御性に欠けており、結果は決定論的か制御されていない多様性を示す。
そこで我々は,プロンプト駆動型データ生成と編集に着想を得て,p2m2-netと呼ばれる新しいプロンプト誘導型ポイントクラウド補完フレームワークを提案する。
入力部分点クラウドと、意味論や欠落領域の構造といった部分認識情報を記述するテキストプロンプトが与えられた場合、トランスフォーマーベースのコンプリートネットワークは、マルチモーダル特徴を効率的に融合させ、プロンプトガイダンスに従って様々な結果を生成することができる。
我々は、新しい大規模PartNet-PromptデータセットでP2M2-Netをトレーニングし、2つの挑戦的な形状補完ベンチマークで広範な実験を行う。
定量および定性的な結果は、より制御可能な部分認識点雲の完成と生成のためのプロンプトを組み込むことの有効性を示している。
コードとデータはhttps://github.com/JLU-ICL/P2M2-Netで公開されている。
関連論文リスト
- DuInNet: Dual-Modality Feature Interaction for Point Cloud Completion [33.023714580710504]
我々は、よりリッチな形状のカテゴリとより多様なテストデータを備えた大規模マルチモーダルポイントクラウド補完ベンチマークModelNet-MPCにコントリビュートする。
完全教師付きポイントクラウド完了タスクに加えて、完了の認知とゼロショット学習完了を含む2つのタスクが提案されている。
ShapeNet-ViPCとModelNet-MPCベンチマークの実験により、DuInNetは最先端の手法よりも全ての完了タスクにおいて優越性、堅牢性、転送能力を示すことが示された。
論文 参考訳(メタデータ) (2024-07-10T05:19:40Z) - Rotation-Invariant Completion Network [8.023732679237021]
現実の点雲は通常不完全性に悩まされ、異なるポーズを示す。
現在のポイントクラウド補完方法は、トレーニングセットに見られるように、一貫したポーズで完全なポイントクラウドを再現するのに優れています。
本稿では,DPCNet (Dual Pipeline Completion Network) と拡張モジュールの2つの部分から構成されるRotation-Invariant Completion Network (RICNet) を提案する。
論文 参考訳(メタデータ) (2023-08-23T07:58:20Z) - DualGenerator: Information Interaction-based Generative Network for
Point Cloud Completion [25.194587599472147]
ポイントクラウド完了は、高品質のポイントクラウドデータを得るために、不完全なポイントクラウドから完全な形状を推定する。
既存の手法のほとんどは、隣接する点の空間的・意味的な情報を無視して、グローバルなオブジェクトの特徴のみを考慮している。
本稿では,ポイントクラウド補完のための情報インタラクションに基づく生成ネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T03:25:38Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Point2Vec for Self-Supervised Representation Learning on Point Clouds [66.53955515020053]
Data2vecをポイントクラウド領域に拡張し、いくつかのダウンストリームタスクで推奨される結果を報告します。
我々は、ポイントクラウド上でData2vecライクな事前トレーニングの可能性を解放するpoint2vecを提案する。
論文 参考訳(メタデータ) (2023-03-29T10:08:29Z) - CompleteDT: Point Cloud Completion with Dense Augment Inference
Transformers [14.823742295692856]
ポイントクラウド補完タスクは、不完全なポイントクラウドの欠如を予測し、詳細でポイントクラウドを生成することを目的としている。
本稿では,変換器をベースとした新しいポイントクラウドコンプリートネットワークであるCompleteDTを提案する。
論文 参考訳(メタデータ) (2022-05-30T11:17:31Z) - Point cloud completion on structured feature map with feedback network [28.710494879042002]
本稿では,FSNetを提案する。FSNetは,ポイントワイドな特徴を適応的に2次元構造的特徴マップに集約できる機能構造化モジュールである。
2次元畳み込みニューラルネットワークを用いて、FSNetから粗い完全点クラウドに特徴マップをデコードする。
点雲アップサンプリングネットワークを用いて、部分入力と粗い中間出力から高密度点雲を生成する。
論文 参考訳(メタデータ) (2022-02-17T10:59:40Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。