論文の概要: gDNA: Towards Generative Detailed Neural Avatars
- arxiv url: http://arxiv.org/abs/2201.04123v1
- Date: Tue, 11 Jan 2022 18:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 14:46:05.833385
- Title: gDNA: Towards Generative Detailed Neural Avatars
- Title(参考訳): gDNA: 生成の詳細なニューラルアバターを目指して
- Authors: Xu Chen, Tianjian Jiang, Jie Song, Jinlong Yang, Michael J. Black,
Andreas Geiger, Otmar Hilliges
- Abstract要約: 我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 94.9804106939663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make 3D human avatars widely available, we must be able to generate a
variety of 3D virtual humans with varied identities and shapes in arbitrary
poses. This task is challenging due to the diversity of clothed body shapes,
their complex articulations, and the resulting rich, yet stochastic geometric
detail in clothing. Hence, current methods to represent 3D people do not
provide a full generative model of people in clothing. In this paper, we
propose a novel method that learns to generate detailed 3D shapes of people in
a variety of garments with corresponding skinning weights. Specifically, we
devise a multi-subject forward skinning module that is learned from only a few
posed, un-rigged scans per subject. To capture the stochastic nature of
high-frequency details in garments, we leverage an adversarial loss formulation
that encourages the model to capture the underlying statistics. We provide
empirical evidence that this leads to realistic generation of local details
such as wrinkles. We show that our model is able to generate natural human
avatars wearing diverse and detailed clothing. Furthermore, we show that our
method can be used on the task of fitting human models to raw scans,
outperforming the previous state-of-the-art.
- Abstract(参考訳): 3Dアバターを広く利用するためには、任意のポーズでさまざまなアイデンティティと形状を持つ様々な3D仮想人間を生成する必要がある。
この課題は、衣服の形状の多様性、複雑な調音、そして衣服における豊かでしかし確率的な幾何学的詳細のためである。
したがって、現在の3D人を表す方法は、衣服の人々の完全な生成モデルを提供していない。
本稿では,スキンの重みに対応するさまざまな衣服の人物の詳細な3次元形状を学習する新しい手法を提案する。
具体的には,被験者1人あたり数回のポーズ・アンリグドスキャンから学習したマルチサブジェクト・フォワード・スキニングモジュールを考案する。
衣料品の高周波詳細の確率的性質を捉えるために,モデルが基礎となる統計を捉えることを奨励する逆損失定式化を利用する。
このことがシワなどの局所的な詳細の現実的な生成につながるという実証的な証拠を提供する。
我々は,多様で詳細な衣服を身に着けた天然のアバターを生産できることを示した。
さらに,本手法は,人間のモデルを生のスキャンに適合させることで,従来の技術よりも優れることを示す。
関連論文リスト
- Design2Cloth: 3D Cloth Generation from 2D Masks [34.80461276448817]
我々は2000以上の被験者スキャンから実世界のデータセットをトレーニングした高忠実度3D生成モデルであるDesign2Clothを提案する。
定性的かつ定量的な実験のシリーズでは、Design2Clothが現在の最先端の織物生成モデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T12:32:13Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。