論文の概要: ShapeAssembly: Learning to Generate Programs for 3D Shape Structure
Synthesis
- arxiv url: http://arxiv.org/abs/2009.08026v1
- Date: Thu, 17 Sep 2020 02:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 09:02:10.785101
- Title: ShapeAssembly: Learning to Generate Programs for 3D Shape Structure
Synthesis
- Title(参考訳): shapeassembly: 3次元形状構造合成のためのプログラム生成のための学習
- Authors: R. Kenny Jones, Theresa Barton, Xianghao Xu, Kai Wang, Ellen Jiang,
Paul Guerrero, Niloy J. Mitra, and Daniel Ritchie
- Abstract要約: 本研究では,3次元形状構造のためのドメイン固有の「アセンブリ言語」であるShapeAssemblyを提案する。
PartNetデータセットの既存の形状構造からShapeAssemblyプログラムを抽出する方法を示す。
生成したプログラムから出力される形状を、他の最近の形状構造モデルと比較することにより、我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 38.27280837835169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manually authoring 3D shapes is difficult and time consuming; generative
models of 3D shapes offer compelling alternatives. Procedural representations
are one such possibility: they offer high-quality and editable results but are
difficult to author and often produce outputs with limited diversity. On the
other extreme are deep generative models: given enough data, they can learn to
generate any class of shape but their outputs have artifacts and the
representation is not editable. In this paper, we take a step towards achieving
the best of both worlds for novel 3D shape synthesis. We propose ShapeAssembly,
a domain-specific "assembly-language" for 3D shape structures. ShapeAssembly
programs construct shapes by declaring cuboid part proxies and attaching them
to one another, in a hierarchical and symmetrical fashion. Its functions are
parameterized with free variables, so that one program structure is able to
capture a family of related shapes. We show how to extract ShapeAssembly
programs from existing shape structures in the PartNet dataset. Then we train a
deep generative model, a hierarchical sequence VAE, that learns to write novel
ShapeAssembly programs. The program captures the subset of variability that is
interpretable and editable. The deep model captures correlations across shape
collections that are hard to express procedurally. We evaluate our approach by
comparing shapes output by our generated programs to those from other recent
shape structure synthesis models. We find that our generated shapes are more
plausible and physically-valid than those of other methods. Additionally, we
assess the latent spaces of these models, and find that ours is better
structured and produces smoother interpolations. As an application, we use our
generative model and differentiable program interpreter to infer and fit shape
programs to unstructured geometry, such as point clouds.
- Abstract(参考訳): 3D形状の生成モデルは魅力的な代替手段を提供する。
プロシージャ表現は、高品質で編集可能な結果を提供するが、執筆が困難であり、しばしば多様性が制限された出力を生成する。
十分なデータがあれば、あらゆる種類の形状を生成することができるが、出力にはアーティファクトがあり、その表現は編集できない。
本稿では,新しい3次元形状合成のための両世界の最善を達成するための一歩を踏み出す。
3次元形状構造のためのドメイン固有な"アセンブリ言語"であるshapeassemblyを提案する。
shapeassemblyプログラムは、キューブイド部分のプロキシを宣言し、互いに階層的で対称的な方法でアタッチすることで形を作る。
その関数は自由変数でパラメータ化され、1つのプログラム構造が関連する形状の族をキャプチャすることができる。
PartNetデータセットの既存の形状構造からShapeAssemblyプログラムを抽出する方法を示す。
次に、新しいShapeAssemblyプログラムを書くことを学習する深層生成モデル、階層的シーケンスVAEを訓練する。
プログラムは解釈可能で編集可能な変数のサブセットをキャプチャする。
深層モデルは、手続き的に表現するのが難しい形状コレクション間の相関をキャプチャする。
提案手法は, 生成したプログラムから出力される形状と, 最近の形状構造合成モデルとを比較して評価する。
我々の生成した形状は、他の方法よりも可塑性で物理的に有益であることがわかった。
さらに、これらのモデルの潜在空間を評価し、我々の方がより構造が良く、よりスムーズな補間ができることを見出します。
アプリケーションとして、生成モデルと微分可能なプログラムインタプリタを用いて、ポイントクラウドのような非構造化幾何学に形状プログラムを推論し、適合させる。
関連論文リスト
- NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - FullFormer: Generating Shapes Inside Shapes [9.195909458772187]
本稿では,複雑な3次元形状を内部幾何学的詳細で生成するための最初の暗黙的生成モデルを提案する。
我々のモデルは、非水密メッシュデータから学習できるネストした3次元表面を表現するために符号のない距離場を使用する。
本研究では,ShapeNetデータセットの"Cars","Planes","Chairs"といった一般的なクラス上で,最先端のクラウド生成結果が得られたことを実証する。
論文 参考訳(メタデータ) (2023-03-20T16:19:23Z) - Learning to Generate 3D Shapes from a Single Example [28.707149807472685]
本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
論文 参考訳(メタデータ) (2022-08-05T01:05:32Z) - ShapeCrafter: A Recursive Text-Conditioned 3D Shape Generation Model [16.431391515731367]
テキスト条件付き3D形状を生成する既存の方法は、テキストプロンプト全体を消費し、単一のステップで3D形状を生成する。
初期フレーズに条件付き3次元形状分布を生成する手法を提案する。
結果から,本手法はテキスト記述と整合した形状を生成でき,さらに多くのフレーズが追加されるにつれて形が徐々に進化していくことが明らかとなった。
論文 参考訳(メタデータ) (2022-07-19T17:59:01Z) - Towards Implicit Text-Guided 3D Shape Generation [81.22491096132507]
本研究は,テキストから3次元形状を生成するという課題について考察する。
テキスト記述にマッチする色で高忠実な形状を生成できるテキスト誘導型3次元形状生成のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-28T10:20:03Z) - LSD-StructureNet: Modeling Levels of Structural Detail in 3D Part
Hierarchies [5.173975064973631]
部品の再生を可能にするStructureNetアーキテクチャの拡張であるLSD-StructureNetを紹介する。
部品階層で表される3次元形状の最大データセットであるPartNetデータセット上でLSD-StructureNetを評価する。
論文 参考訳(メタデータ) (2021-08-18T15:05:06Z) - SP-GAN: Sphere-Guided 3D Shape Generation and Manipulation [50.53931728235875]
点雲の形で3次元形状を直接合成するための新しい教師なし球誘導生成モデルSP-GANを提案する。
既存のモデルと比較して、SP-GANは多種多様な高品質な形状を詳細に合成することができる。
論文 参考訳(メタデータ) (2021-08-10T06:49:45Z) - LASR: Learning Articulated Shape Reconstruction from a Monocular Video [97.92849567637819]
1つのビデオから3d形状を学習するためのテンプレートフリー手法を提案する。
本手法は,人間,動物,未知のクラスの映像から,非剛体3D構造を忠実に再構築する。
論文 参考訳(メタデータ) (2021-05-06T21:41:11Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - Learning Generative Models of Shape Handles [43.41382075567803]
ハンドセットとして3次元形状を合成する生成モデルを提案する。
我々のモデルは、様々な濃度と異なる種類のハンドルを持つハンドセットを生成することができる。
得られた形状表現は直感的であり,従来の最先端技術よりも優れた品質が得られることを示す。
論文 参考訳(メタデータ) (2020-04-06T22:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。