論文の概要: Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis
- arxiv url: http://arxiv.org/abs/2012.13522v1
- Date: Fri, 25 Dec 2020 06:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:34:30.843549
- Title: Generative VoxelNet: Learning Energy-Based Models for 3D Shape Synthesis
and Analysis
- Title(参考訳): 生成型VoxelNet:3次元形状合成と解析のためのエネルギーモデル学習
- Authors: Jianwen Xie, Zilong Zheng, Ruiqi Gao, Wenguan Wang, Song-Chun Zhu,
Ying Nian Wu
- Abstract要約: 本稿では,体積形状を表す3次元エネルギーモデルを提案する。
提案モデルの利点は6倍である。
実験により,提案モデルが高品質な3d形状パターンを生成できることが実証された。
- 参考スコア(独自算出の注目度): 143.22192229456306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D data that contains rich geometry information of objects and scenes is
valuable for understanding 3D physical world. With the recent emergence of
large-scale 3D datasets, it becomes increasingly crucial to have a powerful 3D
generative model for 3D shape synthesis and analysis. This paper proposes a
deep 3D energy-based model to represent volumetric shapes. The maximum
likelihood training of the model follows an "analysis by synthesis" scheme. The
benefits of the proposed model are six-fold: first, unlike GANs and VAEs, the
model training does not rely on any auxiliary models; second, the model can
synthesize realistic 3D shapes by Markov chain Monte Carlo (MCMC); third, the
conditional model can be applied to 3D object recovery and super resolution;
fourth, the model can serve as a building block in a multi-grid modeling and
sampling framework for high resolution 3D shape synthesis; fifth, the model can
be used to train a 3D generator via MCMC teaching; sixth, the unsupervisedly
trained model provides a powerful feature extractor for 3D data, which is
useful for 3D object classification. Experiments demonstrate that the proposed
model can generate high-quality 3D shape patterns and can be useful for a wide
variety of 3D shape analysis.
- Abstract(参考訳): オブジェクトやシーンのリッチな幾何学情報を含む3Dデータは、3D物理世界を理解するのに有用である。
近年の大規模3dデータセットの出現に伴い、3d形状合成と解析のための強力な3d生成モデルを持つことがますます重要になっている。
本稿では,体積形状を表す3次元エネルギーモデルを提案する。
モデルの最大限の訓練は「合成による分析」スキームに従う。
The benefits of the proposed model are six-fold: first, unlike GANs and VAEs, the model training does not rely on any auxiliary models; second, the model can synthesize realistic 3D shapes by Markov chain Monte Carlo (MCMC); third, the conditional model can be applied to 3D object recovery and super resolution; fourth, the model can serve as a building block in a multi-grid modeling and sampling framework for high resolution 3D shape synthesis; fifth, the model can be used to train a 3D generator via MCMC teaching; sixth, the unsupervisedly trained model provides a powerful feature extractor for 3D data, which is useful for 3D object classification.
実験により,提案モデルが高品質な3d形状パターンを生成できることを示し,多種多様な3d形状解析に有用であることを示す。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - SuperGaussian: Repurposing Video Models for 3D Super Resolution [67.19266415499139]
本稿では,幾何学的および外観的詳細を付加することにより,粗い3次元モデルをアップサンプルする,単純でモジュラーで汎用的な手法を提案する。
既存の3次元超解像モデルを直接再利用できることを実証する。
論文 参考訳(メタデータ) (2024-06-02T03:44:50Z) - 3D Geometry-aware Deformable Gaussian Splatting for Dynamic View Synthesis [49.352765055181436]
動的ビュー合成のための3次元幾何学的変形可能なガウススメッティング法を提案する。
提案手法は,動的ビュー合成と3次元動的再構成を改良した3次元形状認識変形モデリングを実現する。
論文 参考訳(メタデータ) (2024-04-09T12:47:30Z) - VFusion3D: Learning Scalable 3D Generative Models from Video Diffusion Models [20.084928490309313]
本稿では,事前学習ビデオ拡散モデルを用いたスケーラブルな3次元生成モデル構築手法を提案する。
微調整により多視点生成能力を解放することにより、大規模な合成多視点データセットを生成し、フィードフォワード3D生成モデルを訓練する。
提案したモデルであるVFusion3Dは、ほぼ3Mの合成マルチビューデータに基づいて訓練され、単一の画像から数秒で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T17:59:12Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - Learning to Generate 3D Shapes from a Single Example [28.707149807472685]
本稿では,入力形状の幾何学的特徴を空間的範囲にわたって捉えるために,マルチスケールのGANモデルを提案する。
我々は、外部の監督や手動のアノテーションを必要とせずに、基準形状のボクセルピラミッドで生成モデルを訓練する。
結果の形状は異なるスケールで変化を示し、同時に基準形状のグローバルな構造を保持する。
論文 参考訳(メタデータ) (2022-08-05T01:05:32Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Building 3D Morphable Models from a Single Scan [3.472931603805115]
本研究では,単一の3次元メッシュから3次元オブジェクトの生成モデルを構築する手法を提案する。
本手法はガウス過程で形状とアルベドを表す3次元形状モデルを生成する。
提案手法は, 単一の3次元スキャンのみを用いて顔認識を行うことができることを示す。
論文 参考訳(メタデータ) (2020-11-24T23:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。