論文の概要: CompleteDT: Point Cloud Completion with Dense Augment Inference
Transformers
- arxiv url: http://arxiv.org/abs/2205.14999v1
- Date: Mon, 30 May 2022 11:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:03:50.801715
- Title: CompleteDT: Point Cloud Completion with Dense Augment Inference
Transformers
- Title(参考訳): CompleteDT:Dense Augment Inference Transformerを使用したポイントクラウド補完
- Authors: Jun Li, Shangwei Guo, Zhengchao Lai, Xiantong Meng, Shaokun Han
- Abstract要約: ポイントクラウド補完タスクは、不完全なポイントクラウドの欠如を予測し、詳細でポイントクラウドを生成することを目的としている。
本稿では,変換器をベースとした新しいポイントクラウドコンプリートネットワークであるCompleteDTを提案する。
- 参考スコア(独自算出の注目度): 14.823742295692856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud completion task aims to predict the missing part of incomplete
point clouds and generate complete point clouds with details. In this paper, we
propose a novel point cloud completion network, CompleteDT, which is based on
the transformer. CompleteDT can learn features within neighborhoods and explore
the relationship among these neighborhoods. By sampling the incomplete point
cloud to obtain point clouds with different resolutions, we extract features
from these point clouds in a self-guided manner, while converting these
features into a series of $patches$ based on the geometrical structure. To
facilitate transformers to leverage sufficient information about point clouds,
we provide a plug-and-play module named Relation-Augment Attention Module
(RAA), consisting of Point Cross-Attention Module (PCA) and Point Dense
Multi-Scale Attention Module (PDMA). These two modules can enhance the ability
to learn features within Patches and consider the correlation among these
Patches. Thus, RAA enables to learn structures of incomplete point clouds and
contribute to infer the local details of complete point clouds generated. In
addition, we predict the complete shape from $patches$ with an efficient
generation module, namely, Multi-resolution Point Fusion Module (MPF). MPF
gradually generates complete point clouds from $patches$, and updates $patches$
based on these generated point clouds. Experimental results show that our
method largely outperforms the state-of-the-art methods.
- Abstract(参考訳): ポイントクラウド補完タスクは、不完全なポイントクラウドの欠如を予測し、詳細で完全なポイントクラウドを生成することを目的としている。
本稿では,変換器をベースとした新しいポイントクラウド補完ネットワークであるCompleteDTを提案する。
CompleteDTは、近所の機能を学習し、これらの地区の関係を探ることができます。
異なる解像度の点雲を得るために不完全点雲をサンプリングすることにより、これらの点雲から特徴を自己誘導的に抽出し、幾何学的構造に基づいてそれらの特徴を一連の$patches$に変換する。
変圧器が点雲に関する情報を十分に活用できるようにするため,PCA (Point Cross-Attention Module) とPDMA (Point Dense Multi-Scale Attention Module) で構成されるRAA (Relation-Augment Attention Module) というプラグイン・アンド・プレイモジュールを提供する。
これら2つのモジュールは、Patches内で機能を学ぶ能力を高め、Patches間の相関を考慮できる。
したがって、RAAは不完全点雲の構造を学習し、生成した完全点雲の局所的な詳細を推測することができる。
さらに,効率の良い生成モジュール,すなわちMPF(Multi- resolution Point Fusion Module)を用いて,$patches$から完全な形状を予測する。
MPFは徐々に$patches$から完全なポイントクラウドを生成し、生成されたポイントクラウドに基づいて$patches$を更新する。
実験の結果,本手法は最先端の手法よりも優れていた。
関連論文リスト
- P2M2-Net: Part-Aware Prompt-Guided Multimodal Point Cloud Completion [6.407066306127476]
高度に隠蔽された点雲から欠落した領域を推定することは極めて困難である。
本稿では,P2M2-Net を作成した新しいプロンプト誘導ポイントクラウド補完フレームワークを提案する。
入力部分点クラウドと部分認識情報を記述するテキストプロンプトが与えられた場合、Transformerベースの補完ネットワークは、マルチモーダル特徴を効率的に融合させることができる。
論文 参考訳(メタデータ) (2023-12-29T14:11:45Z) - Rotation-Invariant Completion Network [8.023732679237021]
現実の点雲は通常不完全性に悩まされ、異なるポーズを示す。
現在のポイントクラウド補完方法は、トレーニングセットに見られるように、一貫したポーズで完全なポイントクラウドを再現するのに優れています。
本稿では,DPCNet (Dual Pipeline Completion Network) と拡張モジュールの2つの部分から構成されるRotation-Invariant Completion Network (RICNet) を提案する。
論文 参考訳(メタデータ) (2023-08-23T07:58:20Z) - P2C: Self-Supervised Point Cloud Completion from Single Partial Clouds [44.02541315496045]
ポイント雲の完成は、部分的な観測に基づいて完全な形状を復元することを目的としている。
既存の手法では、学習には完全な点雲か、同じ物体の複数の部分的な観察が必要である。
Part2Completeは、ポイントクラウドオブジェクトを補完する最初の自己管理型フレームワークです。
論文 参考訳(メタデータ) (2023-07-27T09:31:01Z) - Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Point cloud completion on structured feature map with feedback network [28.710494879042002]
本稿では,FSNetを提案する。FSNetは,ポイントワイドな特徴を適応的に2次元構造的特徴マップに集約できる機能構造化モジュールである。
2次元畳み込みニューラルネットワークを用いて、FSNetから粗い完全点クラウドに特徴マップをデコードする。
点雲アップサンプリングネットワークを用いて、部分入力と粗い中間出力から高密度点雲を生成する。
論文 参考訳(メタデータ) (2022-02-17T10:59:40Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。