論文の概要: PT2PC: Learning to Generate 3D Point Cloud Shapes from Part Tree
Conditions
- arxiv url: http://arxiv.org/abs/2003.08624v2
- Date: Thu, 16 Jul 2020 01:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 05:00:15.175852
- Title: PT2PC: Learning to Generate 3D Point Cloud Shapes from Part Tree
Conditions
- Title(参考訳): PT2PC: 部分木条件から3次元点雲形状を生成する学習
- Authors: Kaichun Mo, He Wang, Xinchen Yan, Leonidas J. Guibas
- Abstract要約: 本稿では,シンボル部分木表現から3次元形状点雲の幾何を生成するという新しい問題について検討する。
構造的および幾何学的要因を乱す条件付きGAN "part tree"-to-point cloud"モデル(PT2PC)を提案する。
- 参考スコア(独自算出の注目度): 66.87405921626004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D generative shape modeling is a fundamental research area in computer
vision and interactive computer graphics, with many real-world applications.
This paper investigates the novel problem of generating 3D shape point cloud
geometry from a symbolic part tree representation. In order to learn such a
conditional shape generation procedure in an end-to-end fashion, we propose a
conditional GAN "part tree"-to-"point cloud" model (PT2PC) that disentangles
the structural and geometric factors. The proposed model incorporates the part
tree condition into the architecture design by passing messages top-down and
bottom-up along the part tree hierarchy. Experimental results and user study
demonstrate the strengths of our method in generating perceptually plausible
and diverse 3D point clouds, given the part tree condition. We also propose a
novel structural measure for evaluating if the generated shape point clouds
satisfy the part tree conditions.
- Abstract(参考訳): 3D生成形状モデリングはコンピュータビジョンとインタラクティブコンピュータグラフィックスの基本的な研究領域であり、多くの実世界の応用がある。
本稿では,象徴的部分木表現から3次元形状点クラウド幾何を生成する新しい問題について検討する。
このような条件付き形状生成手法をエンドツーエンドに学習するために,構造的および幾何学的要因を乱す条件付きGAN "part tree"-to-point cloud"モデル(PT2PC)を提案する。
提案モデルは、部分ツリー階層に沿ってトップダウンとボトムアップのメッセージを渡すことで、部分ツリー条件をアーキテクチャ設計に組み込む。
実験結果とユーザスタディにより, 部分木条件を考慮し, 知覚的に妥当で多様な3次元点雲を発生させる手法の強みを実証した。
また、生成した形状点雲が部分木条件を満たすかどうかを評価するための新しい構造尺度を提案する。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval [46.02391761751015]
きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
論文 参考訳(メタデータ) (2020-10-02T13:06:12Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - Shape-Oriented Convolution Neural Network for Point Cloud Analysis [59.405388577930616]
ポイントクラウドは3次元幾何学情報符号化に採用されている主要なデータ構造である。
形状指向型メッセージパッシング方式であるShapeConvを提案する。
論文 参考訳(メタデータ) (2020-04-20T16:11:51Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。