論文の概要: Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis
- arxiv url: http://arxiv.org/abs/2012.13522v1
- Date: Fri, 25 Dec 2020 06:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:34:30.843549
- Title: Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis
- Title(参考訳): 生成型VoxelNet:3次元形状合成と解析のためのエネルギーモデル学習
- Authors: Jianwen Xie, Zilong Zheng, Ruiqi Gao, Wenguan Wang, Song-Chun Zhu,
Ying Nian Wu
- Abstract要約: 本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
- 参考スコア(独自算出の注目度): 143.22192229456306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D data that contains rich geometry information of objects and scenes is
valuable for understanding 3D physical world. With the recent emergence of
large-scale 3D datasets, it becomes increasingly crucial to have a powerful 3D
generative model for 3D shape synthesis and analysis. This paper proposes a
deep 3D energy-based model to represent volumetric shapes. The maximum
likelihood training of the model follows an "analysis by synthesis" scheme. The
benefits of the proposed model are six-fold: first, unlike GANs and VAEs, the
model training does not rely on any auxiliary models; second, the model can
synthesize realistic 3D shapes by Markov chain Monte Carlo (MCMC); third, the
conditional model can be applied to 3D object recovery and super resolution;
fourth, the model can serve as a building block in a multi-grid modeling and
sampling framework for high resolution 3D shape synthesis; fifth, the model can
be used to train a 3D generator via MCMC teaching; sixth, the unsupervisedly
trained model provides a powerful feature extractor for 3D data, which is
useful for 3D object classification. Experiments demonstrate that the proposed
model can generate high-quality 3D shape patterns and can be useful for a wide
variety of 3D shape analysis.
- Abstract(参考訳): オブジェクトやシーンのリッチな幾何学情報を含む3Dデータは、3D物理世界を理解するのに有用である。
近年の大規模3dデータセットの出現に伴い、3d形状合成と解析のための強力な3d生成モデルを持つことがますます重要になっている。
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
モデルの最大限の訓練は「合成による分析」スキームに従う。
The benefits of the proposed model are six-fold: first, unlike GANs and VAEs, the model training does not rely on any auxiliary models; second, the model can synthesize realistic 3D shapes by Markov chain Monte Carlo (MCMC); third, the conditional model can be applied to 3D object recovery and super resolution; fourth, the model can serve as a building block in a multi-grid modeling and sampling framework for high resolution 3D shape synthesis; fifth, the model can be used to train a 3D generator via MCMC teaching; sixth, the unsupervisedly trained model provides a powerful feature extractor for 3D data, which is useful for 3D object classification.
実験により,提案モデルが高品質な3d形状パターンを生成できることを示し,多種多様な3d形状解析に有用であることを示す。
関連論文リスト
- Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - GET3D--: Learning GET3D from Unconstrained Image Collections [27.470617383305726]
本研究では2次元画像から直接テクスチャ化された3次元形状を生成できるGET3D-を提案する。
GET3D--は3D形状のジェネレータと、カメラ上の6D外部変化をキャプチャする学習可能なカメラサンプリング器を備える。
論文 参考訳(メタデータ) (2023-07-27T15:00:54Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Learning to Generate 3D Shapes from a Single Example [28.707149807472685]
本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
論文 参考訳(メタデータ) (2022-08-05T01:05:32Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Building 3D Morphable Models from a Single Scan [3.472931603805115]
本研究では,単一の3次元メッシュから3次元オブジェクトの生成モデルを構築する手法を提案する。
本手法はガウス過程で形状とアルベドを表す3次元形状モデルを生成する。
提案手法は, 単一の3次元スキャンのみを用いて顔認識を行うことができることを示す。
論文 参考訳(メタデータ) (2020-11-24T23:08:14Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。