論文の概要: DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation
- arxiv url: http://arxiv.org/abs/2008.05440v4
- Date: Sat, 28 May 2022 17:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 05:59:16.735363
- Title: DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation
- Title(参考訳): dsg-net: 3次元形状生成のための構造と形状の学習
- Authors: Jie Yang, Kaichun Mo, Yu-Kun Lai, Leonidas J. Guibas, Lin Gao
- Abstract要約: DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
- 参考スコア(独自算出の注目度): 98.96086261213578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: D shape generation is a fundamental operation in computer graphics. While
significant progress has been made, especially with recent deep generative
models, it remains a challenge to synthesize high-quality shapes with rich
geometric details and complex structure, in a controllable manner. To tackle
this, we introduce DSG-Net, a deep neural network that learns a disentangled
structured and geometric mesh representation for 3D shapes, where two key
aspects of shapes, geometry, and structure, are encoded in a synergistic manner
to ensure plausibility of the generated shapes, while also being disentangled
as much as possible. This supports a range of novel shape generation
applications with disentangled control, such as interpolation of structure
(geometry) while keeping geometry (structure) unchanged. To achieve this, we
simultaneously learn structure and geometry through variational autoencoders
(VAEs) in a hierarchical manner for both, with bijective mappings at each
level. In this manner, we effectively encode geometry and structure in separate
latent spaces, while ensuring their compatibility: the structure is used to
guide the geometry and vice versa. At the leaf level, the part geometry is
represented using a conditional part VAE, to encode high-quality geometric
details, guided by the structure context as the condition. Our method not only
supports controllable generation applications but also produces high-quality
synthesized shapes, outperforming state-of-the-art methods. The code has been
released at https://github.com/IGLICT/DSG-Net.
- Abstract(参考訳): D形状生成はコンピュータグラフィックスの基本的な操作である。
特に最近の深層生成モデルでは大きな進歩があったが、リッチな幾何学的詳細と複雑な構造を持つ高品質な形状を制御可能な方法で合成することは依然として困難である。
DSG-Netは,形状,形状,構造の2つの重要な側面を相乗的に符号化し,生成した形状の可視性を確保するとともに,可能な限り不整合性も確保する,3次元形状の非交絡構造および幾何メッシュ表現を学習するディープニューラルネットワークである。
これは、構造(幾何学)の補間や幾何学(構造)の不変性の維持など、不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
これを実現するために,各レベルの単射写像を用いて,変動オートエンコーダ(VAE)による構造と幾何学を階層的に同時に学習する。
このようにして、異なる潜在空間における幾何学と構造を効果的に符号化し、それらの整合性を保証する。
葉のレベルでは、部分幾何学は条件付き部分VAEを用いて表現され、構造コンテキストを条件として導かれる高品質な幾何学的詳細を符号化する。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
コードはhttps://github.com/IGLICT/DSG-Netで公開されている。
関連論文リスト
- Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Neural Convolutional Surfaces [59.172308741945336]
この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
論文 参考訳(メタデータ) (2022-04-05T15:40:11Z) - DECOR-GAN: 3D Shape Detailization by Conditional Refinement [50.8801457082181]
本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
論文 参考訳(メタデータ) (2020-12-16T18:52:10Z) - RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval [46.02391761751015]
きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
論文 参考訳(メタデータ) (2020-10-02T13:06:12Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。