論文の概要: RPG: Learning Recursive Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2105.14322v1
- Date: Sat, 29 May 2021 15:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 15:28:48.522061
- Title: RPG: Learning Recursive Point Cloud Generation
- Title(参考訳): rpg: 再帰的ポイントクラウド生成の学習
- Authors: Wei-Jan Ko, Hui-Yu Huang, Yu-Liang Kuo, Chen-Yi Chiu, Li-Heng Wang,
Wei-Chen Chiu
- Abstract要約: 本稿では,意味部品からなる3次元点雲を再構成し,生成できる新しい点雲生成器を提案する。
本稿では,生成タスクと再構築タスクの両方において,提案するジェネレータの性能が同等かそれ以上であることを示す。
- 参考スコア(独自算出の注目度): 12.499700765561874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose a novel point cloud generator that is able to
reconstruct and generate 3D point clouds composed of semantic parts. Given a
latent representation of the target 3D model, the generation starts from a
single point and gets expanded recursively to produce the high-resolution point
cloud via a sequence of point expansion stages. During the recursive procedure
of generation, we not only obtain the coarse-to-fine point clouds for the
target 3D model from every expansion stage, but also unsupervisedly discover
the semantic segmentation of the target model according to the
hierarchical/parent-child relation between the points across expansion stages.
Moreover, the expansion modules and other elements used in our recursive
generator are mostly sharing weights thus making the overall framework light
and efficient. Extensive experiments are conducted to demonstrate that our
proposed point cloud generator has comparable or even superior performance on
both generation and reconstruction tasks in comparison to various baselines, as
well as provides the consistent co-segmentation among 3D instances of the same
object class.
- Abstract(参考訳): 本稿では,意味部品からなる3次元点雲を再構成し,生成できる新しい点雲生成器を提案する。
対象3Dモデルの潜在表現が与えられた場合、生成は単一点から始まり、再帰的に拡大され、一連の点展開段階を経て高解像度の点雲を生成する。
生成過程において,各展開段階から対象3dモデルに対する粗粒度対細点雲を得るだけでなく,拡張段階における各点間の階層的・親子関係に基づき,対象モデルの意味的セグメンテーションを教師なしに発見する。
さらに、再帰的ジェネレータで使用される拡張モジュールや他の要素は重みを共有しているため、全体的なフレームワークは軽量で効率的である。
提案するポイントクラウドジェネレータは, 各種ベースラインと比較して, 生成タスクと再構築タスクの両面で同等あるいはそれ以上の優れた性能を示し, 同一オブジェクトクラスの3Dインスタンス間で一貫した協調処理を提供する。
関連論文リスト
- Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Small but Mighty: Enhancing 3D Point Clouds Semantic Segmentation with
U-Next Framework [7.9395601503353825]
我々は,ポイントクラウドセマンティックセマンティックセグメンテーション用に設計された,小さいが強力なフレームワークであるU-Nextを提案する。
U-Nextは複数のU-Net$L1$コーデックをネストして密に配置し、セマンティックギャップを最小限に抑えることで構築します。
S3DIS、Tronto3D、SensatUrbanの3つの大規模ベンチマークで実施された大規模な実験は、提案したU-Nextアーキテクチャの優位性と有効性を示している。
論文 参考訳(メタデータ) (2023-04-03T06:59:08Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - Autoregressive 3D Shape Generation via Canonical Mapping [92.91282602339398]
トランスフォーマーは、画像、音声、テキスト生成など、様々な生成タスクで顕著なパフォーマンスを示している。
本稿では,変圧器のパワーをさらに活用し,それを3Dポイントクラウド生成のタスクに活用することを目的とする。
条件付き形状生成への応用として,本モデルを簡単にマルチモーダル形状完成に拡張することができる。
論文 参考訳(メタデータ) (2022-04-05T03:12:29Z) - Learning Local Displacements for Point Cloud Completion [93.54286830844134]
本稿では,3次元点雲として表現された部分的スキャンからオブジェクトとセマンティックシーンを補完する手法を提案する。
アーキテクチャはエンコーダ-デコーダ構造内で連続的に使用される3つの新しいレイヤに依存している。
オブジェクトと屋内の両方のシーン完了タスクにおけるアーキテクチャの評価を行い、最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-30T18:31:37Z) - CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning [53.1436669083784]
本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
論文 参考訳(メタデータ) (2022-01-20T15:04:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。