論文の概要: Learning to Generate 3D Shapes from a Single Example
- arxiv url: http://arxiv.org/abs/2208.02946v1
- Date: Fri, 5 Aug 2022 01:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:17:02.996312
- Title: Learning to Generate 3D Shapes from a Single Example
- Title(参考訳): 一つの例から3d形状を生成するための学習
- Authors: Rundi Wu, Changxi Zheng
- Abstract要約: 本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
- 参考スコア(独自算出の注目度): 28.707149807472685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing generative models for 3D shapes are typically trained on a large 3D
dataset, often of a specific object category. In this paper, we investigate the
deep generative model that learns from only a single reference 3D shape.
Specifically, we present a multi-scale GAN-based model designed to capture the
input shape's geometric features across a range of spatial scales. To avoid
large memory and computational cost induced by operating on the 3D volume, we
build our generator atop the tri-plane hybrid representation, which requires
only 2D convolutions. We train our generative model on a voxel pyramid of the
reference shape, without the need of any external supervision or manual
annotation. Once trained, our model can generate diverse and high-quality 3D
shapes possibly of different sizes and aspect ratios. The resulting shapes
present variations across different scales, and at the same time retain the
global structure of the reference shape. Through extensive evaluation, both
qualitative and quantitative, we demonstrate that our model can generate 3D
shapes of various types.
- Abstract(参考訳): 既存の3次元形状の生成モデルは、通常、大きな3次元データセット(しばしば特定の対象カテゴリ)で訓練される。
本稿では,単一の参照3次元形状のみから学習する深部生成モデルについて検討する。
具体的には,入力形状の幾何学的特徴を空間的範囲にわたって捉えたマルチスケールGANモデルを提案する。
3次元ボリュームの操作によって生じる大きなメモリと計算コストを避けるため、我々は2次元畳み込みのみを必要とする三面ハイブリッド表現の上に生成器を構築した。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
トレーニングを済ませば、サイズやアスペクト比の異なる、多種多様な高品質な3D形状を生成できる。
結果として得られる形状は、異なるスケールにまたがる変化を示し、同時に基準形状の全体構造を保持する。
定性的かつ定量的な評価を通じて、我々のモデルは様々なタイプの3次元形状を生成できることを実証する。
関連論文リスト
- NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Explorable Mesh Deformation Subspaces from Unstructured Generative
Models [53.23510438769862]
3次元形状の深い生成モデルは、しばしば潜在的な変動を探索するために使用できる連続的な潜伏空間を特徴付ける。
本研究では,手軽に探索可能な2次元探索空間から事前学習された生成モデルのサブ空間へのマッピングを構築することで,与えられたランドマーク形状の集合間のバリエーションを探索する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:53:57Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - FullFormer: Generating Shapes Inside Shapes [9.195909458772187]
本稿では,複雑な3次元形状を内部幾何学的詳細で生成するための最初の暗黙的生成モデルを提案する。
我々のモデルは、非水密メッシュデータから学習できるネストした3次元表面を表現するために符号のない距離場を使用する。
本研究では,ShapeNetデータセットの"Cars","Planes","Chairs"といった一般的なクラス上で,最先端のクラウド生成結果が得られたことを実証する。
論文 参考訳(メタデータ) (2023-03-20T16:19:23Z) - 3DQD: Generalized Deep 3D Shape Prior via Part-Discretized Diffusion
Process [32.3773514247982]
複数の3次元タスクに適した,一般化された3次元形状生成モデルを開発した。
設計は、提案した3次元形状先行モデルに高忠実度、多彩な特徴と、相互モダリティアライメントの能力を併用する。
論文 参考訳(メタデータ) (2023-03-18T12:50:29Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - GLASS: Geometric Latent Augmentation for Shape Spaces [28.533018136138825]
幾何学的に動機づけられたエネルギーを用いて拡張し、その結果、サンプル(トレーニング)モデルのスパースコレクションを増強する。
本研究では,高剛性(ARAP)エネルギーのヘシアン解析を行い,その基礎となる(局所)形状空間に投射する。
我々は,3~10個のトレーニング形状から始めても,興味深い,意味のある形状変化の例をいくつか提示する。
論文 参考訳(メタデータ) (2021-08-06T17:56:23Z) - Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis [143.22192229456306]
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
論文 参考訳(メタデータ) (2020-12-25T06:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。