論文の概要: Deep Point Cloud Reconstruction
- arxiv url: http://arxiv.org/abs/2111.11704v1
- Date: Tue, 23 Nov 2021 07:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 14:56:18.047928
- Title: Deep Point Cloud Reconstruction
- Title(参考訳): 深部クラウドの再構築
- Authors: Jaesung Choe, Byeongin Joung, Francois Rameau, Jaesik Park, In So
Kweon
- Abstract要約: 3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
- 参考スコア(独自算出の注目度): 74.694733918351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud obtained from 3D scanning is often sparse, noisy, and irregular.
To cope with these issues, recent studies have been separately conducted to
densify, denoise, and complete inaccurate point cloud. In this paper, we
advocate that jointly solving these tasks leads to significant improvement for
point cloud reconstruction. To this end, we propose a deep point cloud
reconstruction network consisting of two stages: 1) a 3D sparse
stacked-hourglass network as for the initial densification and denoising, 2) a
refinement via transformers converting the discrete voxels into 3D points. In
particular, we further improve the performance of transformer by a newly
proposed module called amplified positional encoding. This module has been
designed to differently amplify the magnitude of positional encoding vectors
based on the points' distances for adaptive refinements. Extensive experiments
demonstrate that our network achieves state-of-the-art performance among the
recent studies in the ScanNet, ICL-NUIM, and ShapeNetPart datasets. Moreover,
we underline the ability of our network to generalize toward real-world and
unmet scenes.
- Abstract(参考訳): 3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本稿では,これらの課題を共同で解決することで,点群再構成の大幅な改善が期待できる。
そこで本研究では,2段階からなる深部クラウド再構築ネットワークを提案する。
1)最初のデンシフィケーション及びデノナイジングのための3次元スパース集積時間ガラスネットワーク
2) 離散ボクセルを3dポイントに変換するトランスフォーマーによる改良。
特に,新たに提案するamplified positional encoding (amplified positional encoding) モジュールにより,トランスフォーマティブの性能をさらに向上させる。
このモジュールは、適応的な洗練のために点の距離に基づいて位置符号化ベクトルの大きさを異なる方法で増幅するように設計されている。
ScanNet, ICL-NUIM, およびShapeNetPartデータセットにおける最近の研究の中で, 我々のネットワークは最先端の性能を発揮することを示した。
さらに,実世界や未熟なシーンに対して,ネットワークが一般化する能力も強調する。
関連論文リスト
- DeCoTR: Enhancing Depth Completion with 2D and 3D Attentions [41.55908366474901]
本研究では,2次元と3次元の両方の注意を生かし,高精度な深度補完を実現する手法を提案する。
提案手法であるDeCoTRを,確立した深度補完ベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-18T19:22:55Z) - Arbitrary point cloud upsampling via Dual Back-Projection Network [12.344557879284219]
ポイントクラウドアップサンプリング(DBPnet)のためのデュアルバックプロジェクションネットワークを提案する。
デュアルバックプロジェクションは、ポイントクラウドアップサンプリングのためのアップアップアップ方式で定式化される。
実験の結果,提案手法は最小の点集合の損失を達成できることがわかった。
論文 参考訳(メタデータ) (2023-07-18T06:11:09Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution [0.7340017786387767]
3次元点雲の解釈は、成分点のランダム性と空間性のために難しい課題である。
本研究では,効率的な3Dポイントクラウド解釈に向けて,標準的な3Dコンボリューションに注意を向ける。
我々のネットワークは、非常に高速に動作し、収束することができるが、いくつかのベンチマークデータセットの最先端の手法と比較して、オンパーまたはさらにパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-09-07T07:45:05Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。