論文の概要: A Generative Multi-Resolution Pyramid and Normal-Conditioning 3D Cloth
Draping
- arxiv url: http://arxiv.org/abs/2311.02700v1
- Date: Sun, 5 Nov 2023 16:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:16:09.876351
- Title: A Generative Multi-Resolution Pyramid and Normal-Conditioning 3D Cloth
Draping
- Title(参考訳): 生成型マルチレゾリューションピラミッドと正常条件付き3d布ドローピング
- Authors: Hunor Laczk\'o, Meysam Madadi, Sergio Escalera, Jordi Gonzalez
- Abstract要約: 条件付き変分オートエンコーダを試作し,3次元衣服の生成と描画を行う。
正準空間に衣服の詳細を段階的に付加するピラミッドネットワークを提案する。
CLOTH3DとCAPEの2つの公開データセットによる結果から,モデルが堅牢で,詳細生成の点で制御可能であることが示された。
- 参考スコア(独自算出の注目度): 37.77353302404437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB cloth generation has been deeply studied in the related literature,
however, 3D garment generation remains an open problem. In this paper, we build
a conditional variational autoencoder for 3D garment generation and draping. We
propose a pyramid network to add garment details progressively in a canonical
space, i.e. unposing and unshaping the garments w.r.t. the body. We study
conditioning the network on surface normal UV maps, as an intermediate
representation, which is an easier problem to optimize than 3D coordinates. Our
results on two public datasets, CLOTH3D and CAPE, show that our model is
robust, controllable in terms of detail generation by the use of
multi-resolution pyramids, and achieves state-of-the-art results that can
highly generalize to unseen garments, poses, and shapes even when training with
small amounts of data.
- Abstract(参考訳): 関連文献ではRGB布の生成が深く研究されているが、3D衣料生成は未解決の問題である。
本稿では,3次元衣服生成とドローイングのための条件付き変分オートエンコーダを構築する。
本研究では,正準空間において衣服の詳細を段階的に付加するピラミッドネットワークを提案する。
本研究では3次元座標よりも容易に最適化できる中間表現として,通常のUVマップ上でのネットワークの条件付けについて検討する。
CLOTH3D と CAPE の2つの公開データセットによる結果から,我々のモデルは高解像度ピラミッドによる細部生成の観点から頑健で制御可能であること,また,少ないデータでトレーニングしても,目立たない衣服やポーズ,形状に高度に一般化できる最先端の結果が得られた。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - SCULPT: Shape-Conditioned Unpaired Learning of Pose-dependent Clothed and Textured Human Meshes [62.82552328188602]
SCULPTは,人間の布とテクスチャを用いた3次元メッシュの新規な3次元生成モデルである。
我々は, 被服体の形状と外観分布を表現できるディープニューラルネットワークを考案した。
論文 参考訳(メタデータ) (2023-08-21T11:23:25Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - 3D-Aware Indoor Scene Synthesis with Depth Priors [62.82867334012399]
既存の手法では、室内配置や内部の物体の多様さのため、屋内シーンのモデル化に失敗する。
室内のシーンは共通な内在構造を持たず、2次元画像のみを用いるだけでは3次元形状のモデルが適切にガイドできない。
論文 参考訳(メタデータ) (2022-02-17T09:54:29Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z) - DECOR-GAN: 3D Shape Detailization by Conditional Refinement [50.8801457082181]
本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
論文 参考訳(メタデータ) (2020-12-16T18:52:10Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z) - PeeledHuman: Robust Shape Representation for Textured 3D Human Body
Reconstruction [7.582064461041252]
PeeledHumanは、人間の体を2DのPeeled DepthとRGBマップのセットとしてエンコードする。
我々は,PelGANを3D Chamfer損失と他の2D損失を用いて訓練し,画素ごとの深度値と頂点毎のRGBフィールドを生成する。
単純な非パラメトリック解では、生成されたピールドデプス写像は3次元空間に逆投影され、完全なテクスチャ化された3次元形状が得られる。
論文 参考訳(メタデータ) (2020-02-16T20:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。