論文の概要: DMF-Net: Image-Guided Point Cloud Completion with Dual-Channel Modality Fusion and Shape-Aware Upsampling Transformer
- arxiv url: http://arxiv.org/abs/2406.17319v1
- Date: Tue, 25 Jun 2024 07:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 15:21:33.674678
- Title: DMF-Net: Image-Guided Point Cloud Completion with Dual-Channel Modality Fusion and Shape-Aware Upsampling Transformer
- Title(参考訳): DMF-Net:Dual-Channel Modality FusionとShape-Aware Upsampling Transformerを用いたイメージガイドポイントクラウドコンプリート
- Authors: Aihua Mao, Yuxuan Tang, Jiangtao Huang, Ying He,
- Abstract要約: 本稿では,画像誘導点雲補完のための新しいデュアルチャネルモダリティ融合ネットワークを提案する。
第1段階では、DMF-Netは部分点雲と対応する画像を入力として取り出して粗い点雲を復元する。
第2段階では、粗い点雲が2回、形状を意識したアップサンプリング変圧器でアップサンプリングされ、密度の高い完全点雲が得られる。
- 参考スコア(独自算出の注目度): 7.210417508954435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we study the task of a single-view image-guided point cloud completion. Existing methods have got promising results by fusing the information of image into point cloud explicitly or implicitly. However, given that the image has global shape information and the partial point cloud has rich local details, We believe that both modalities need to be given equal attention when performing modality fusion. To this end, we propose a novel dual-channel modality fusion network for image-guided point cloud completion(named DMF-Net), in a coarse-to-fine manner. In the first stage, DMF-Net takes a partial point cloud and corresponding image as input to recover a coarse point cloud. In the second stage, the coarse point cloud will be upsampled twice with shape-aware upsampling transformer to get the dense and complete point cloud. Extensive quantitative and qualitative experimental results show that DMF-Net outperforms the state-of-the-art unimodal and multimodal point cloud completion works on ShapeNet-ViPC dataset.
- Abstract(参考訳): 本稿では,一視点画像誘導点雲完成の課題について検討する。
既存の方法は、画像の情報を明示的にまたは暗黙的にポイントクラウドに融合することで、有望な結果を得た。
しかし、画像が大域的な形状情報を持ち、部分点雲がリッチな局所的詳細を持っていることを考慮すれば、両モードはモダリティ融合を行う際には等しく注意する必要があると考えられる。
この目的のために,画像誘導点雲補完(DMF-Net)のための2チャネルモード融合ネットワークを,粗大な方法で提案する。
第1段階では、DMF-Netは部分点雲と対応する画像を入力として取り出して粗い点雲を復元する。
第2段階では、粗い点雲が2回、形状を意識したアップサンプリング変圧器でアップサンプリングされ、密度の高い完全点雲が得られる。
DMF-Netは、ShapeNet-ViPCデータセット上で、最先端の非モーダル・マルチモーダル・ポイント・クラウド・コンプリートよりも優れていた。
関連論文リスト
- DuInNet: Dual-Modality Feature Interaction for Point Cloud Completion [33.023714580710504]
我々は、よりリッチな形状のカテゴリとより多様なテストデータを備えた大規模マルチモーダルポイントクラウド補完ベンチマークModelNet-MPCにコントリビュートする。
完全教師付きポイントクラウド完了タスクに加えて、完了の認知とゼロショット学習完了を含む2つのタスクが提案されている。
ShapeNet-ViPCとModelNet-MPCベンチマークの実験により、DuInNetは最先端の手法よりも全ての完了タスクにおいて優越性、堅牢性、転送能力を示すことが示された。
論文 参考訳(メタデータ) (2024-07-10T05:19:40Z) - Zero-shot Point Cloud Completion Via 2D Priors [52.72867922938023]
3次元点雲の完成は、部分的に観測された点雲から完全な形状を復元するように設計されている。
そこで本研究では, 観測された点群を対象とするゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T08:02:17Z) - Rotation-Invariant Completion Network [8.023732679237021]
現実の点雲は通常不完全性に悩まされ、異なるポーズを示す。
現在のポイントクラウド補完方法は、トレーニングセットに見られるように、一貫したポーズで完全なポイントクラウドを再現するのに優れています。
本稿では,DPCNet (Dual Pipeline Completion Network) と拡張モジュールの2つの部分から構成されるRotation-Invariant Completion Network (RICNet) を提案する。
論文 参考訳(メタデータ) (2023-08-23T07:58:20Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Point2Vec for Self-Supervised Representation Learning on Point Clouds [66.53955515020053]
Data2vecをポイントクラウド領域に拡張し、いくつかのダウンストリームタスクで推奨される結果を報告します。
我々は、ポイントクラウド上でData2vecライクな事前トレーニングの可能性を解放するpoint2vecを提案する。
論文 参考訳(メタデータ) (2023-03-29T10:08:29Z) - CSDN: Cross-modal Shape-transfer Dual-refinement Network for Point Cloud
Completion [28.012936521291834]
本稿では,ポイントクラウド補完のためのクロスモーダル・シェイプ・トランスファー・デュアルリファインメント・ネットワーク(CSDN)を提案する。
第1モジュールは、単一画像から固有形状特性を伝達し、欠測領域の幾何学的生成を導く。
第2モジュールは、生成された点の位置を調整することで粗い出力を洗練する。
論文 参考訳(メタデータ) (2022-08-01T11:20:56Z) - CompleteDT: Point Cloud Completion with Dense Augment Inference
Transformers [14.823742295692856]
ポイントクラウド補完タスクは、不完全なポイントクラウドの欠如を予測し、詳細でポイントクラウドを生成することを目的としている。
本稿では,変換器をベースとした新しいポイントクラウドコンプリートネットワークであるCompleteDTを提案する。
論文 参考訳(メタデータ) (2022-05-30T11:17:31Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。