論文の概要: Cascaded Refinement Network for Point Cloud Completion
- arxiv url: http://arxiv.org/abs/2004.03327v3
- Date: Fri, 5 Jun 2020 14:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:25:32.456292
- Title: Cascaded Refinement Network for Point Cloud Completion
- Title(参考訳): ポイントクラウド完了のためのカスケードリファインメントネットワーク
- Authors: Xiaogang Wang, Marcelo H Ang Jr, Gim Hee Lee
- Abstract要約: 本稿では,細かな物体形状を合成するための粗大な戦略とともに,カスケード型精細化ネットワークを提案する。
部分入力の局所的な詳細と大域的な形状情報を合わせて考えると、既存の詳細を不完全点集合に保存することができる。
また、各局所領域が同じパターンと基底的真理を持つことを保証し、複雑な点分布を学習するパッチ判別器を設計する。
- 参考スコア(独自算出の注目度): 74.80746431691938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds are often sparse and incomplete. Existing shape completion
methods are incapable of generating details of objects or learning the complex
point distributions. To this end, we propose a cascaded refinement network
together with a coarse-to-fine strategy to synthesize the detailed object
shapes. Considering the local details of partial input with the global shape
information together, we can preserve the existing details in the incomplete
point set and generate the missing parts with high fidelity. We also design a
patch discriminator that guarantees every local area has the same pattern with
the ground truth to learn the complicated point distribution. Quantitative and
qualitative experiments on different datasets show that our method achieves
superior results compared to existing state-of-the-art approaches on the 3D
point cloud completion task. Our source code is available at
https://github.com/xiaogangw/cascaded-point-completion.git.
- Abstract(参考訳): 点雲はしばしばスパースで不完全である。
既存の形状補完法は、オブジェクトの詳細を生成したり、複雑な点分布を学習することができない。
そこで本研究では,細かな物体形状を合成するための粗粒化戦略とともに,カスケード型精細化ネットワークを提案する。
グローバル形状情報を含む部分入力の局所的詳細を考慮すれば,不完全点集合の既存詳細を保存でき,高忠実度で欠落部分を生成することができる。
また,各局所領域が基底的真理と同一のパターンを持つことを保証するパッチ判別器を設計し,複雑な点分布を学習する。
異なるデータセット上での定量的・定性的な実験により、3dポイントクラウド補完タスクにおける既存の最先端アプローチに比べて優れた結果が得られた。
ソースコードはhttps://github.com/xiaogangw/cascaded-point-completion.gitで入手できます。
関連論文リスト
- P2C: Self-Supervised Point Cloud Completion from Single Partial Clouds [44.02541315496045]
ポイント雲の完成は、部分的な観測に基づいて完全な形状を復元することを目的としている。
既存の手法では、学習には完全な点雲か、同じ物体の複数の部分的な観察が必要である。
Part2Completeは、ポイントクラウドオブジェクトを補完する最初の自己管理型フレームワークです。
論文 参考訳(メタデータ) (2023-07-27T09:31:01Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Voxel-based Network for Shape Completion by Leveraging Edge Generation [76.23436070605348]
エッジ生成(VE-PCN)を利用した点雲補完のためのボクセルネットワークを開発した。
まず点雲を正規のボクセル格子に埋め込み、幻覚した形状のエッジの助けを借りて完全な物体を生成する。
この分離されたアーキテクチャとマルチスケールのグリッド機能学習は、より現実的な表面上の詳細を生成することができる。
論文 参考訳(メタデータ) (2021-08-23T05:10:29Z) - Variational Relational Point Completion Network [41.98957577398084]
既存のポイントクラウド補完メソッドは、グローバルシェイプスケルトンを生成し、細かいローカル詳細を欠いています。
本稿では,2つの特性を持つ変分点コンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンで、大きな可能性と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-20T17:53:40Z) - PMP-Net: Point Cloud Completion by Learning Multi-step Point Moving
Paths [54.459879603473034]
我々はPMP-Netと呼ばれる新しいニューラルネットワークを設計し、地球移動体の動作を模倣する。
不完全な入力の各点を移動させ、ポイントクラウドを完結させ、ポイント移動パスの合計距離が最も短くなる。
点レベルの厳密でユニークな対応を学習し、不完全な形状と完全なターゲットの間の詳細なトポロジーと構造的関係を捉えることができる。
論文 参考訳(メタデータ) (2020-12-07T01:34:38Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z) - Point Cloud Completion by Skip-attention Network with Hierarchical
Folding [61.59710288271434]
本研究では,3Dポイントクラウド補完のためのSkip-Attention Network (SA-Net)を提案する。
まず,不完全点雲の局所構造を効果的に活用するためのスキップアテンション機構を提案する。
第二に、異なる解像度でスキップアテンション機構によって符号化された選択された幾何情報を完全に活用するために、新しい構造保存デコーダを提案する。
論文 参考訳(メタデータ) (2020-05-08T06:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。