論文の概要: Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction
- arxiv url: http://arxiv.org/abs/2007.11432v2
- Date: Fri, 26 Nov 2021 05:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:56:13.812290
- Title: Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction
- Title(参考訳): インシシシト関数学習とパラメトリックモデルを組み合わせた3次元再構成
- Authors: Bharat Lal Bhatnagar, Cristian Sminchisescu, Christian Theobalt,
Gerard Pons-Moll
- Abstract要約: 深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
- 参考スコア(独自算出の注目度): 123.62341095156611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit functions represented as deep learning approximations are powerful
for reconstructing 3D surfaces. However, they can only produce static surfaces
that are not controllable, which provides limited ability to modify the
resulting model by editing its pose or shape parameters. Nevertheless, such
features are essential in building flexible models for both computer graphics
and computer vision. In this work, we present methodology that combines
detail-rich implicit functions and parametric representations in order to
reconstruct 3D models of people that remain controllable and accurate even in
the presence of clothing. Given sparse 3D point clouds sampled on the surface
of a dressed person, we use an Implicit Part Network (IP-Net)to jointly predict
the outer 3D surface of the dressed person, the and inner body surface, and the
semantic correspondences to a parametric body model. We subsequently use
correspondences to fit the body model to our inner surface and then non-rigidly
deform it (under a parametric body + displacement model) to the outer surface
in order to capture garment, face and hair detail. In quantitative and
qualitative experiments with both full body data and hand scans we show that
the proposed methodology generalizes, and is effective even given incomplete
point clouds collected from single-view depth images. Our models and code can
be downloaded from http://virtualhumans.mpi-inf.mpg.de/ipnet.
- Abstract(参考訳): 深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
しかし、制御不可能な静的曲面しか生成できないため、ポーズや形状パラメータを編集することで、結果のモデルを変更する能力に制限がある。
それでも、そのような機能はコンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
本研究では,衣服の存在下においてもコントロール可能で正確な3Dモデルを構築するために,ディテールリッチな暗黙関数とパラメトリック表現を組み合わせた手法を提案する。
着飾った人の表面にサンプリングされたかすかな3d点雲が与えられたとき、着飾った人の外側3d表面、内面、およびパラメトリックボディモデルに対する意味的対応を共同で予測するために、暗黙の部分ネットワーク(ip-net)を使用する。
その後,体モデルを内面に適合させ,外面に(パラメトリック体+変位モデルの下で)非剛性に変形させ,衣服,顔,毛髪の細部を捉える。
全身データと手スキャンの両方を用いた定量定性的実験において,提案手法が一般化し,単視点深度画像から収集した不完全点雲に対しても有効であることを示す。
私たちのモデルとコードはhttp://virtualhumans.mpi-inf.mpg.de/ipnetからダウンロードできます。
関連論文リスト
- ECON: Explicit Clothed humans Optimized via Normal integration [54.51948104460489]
ゆるい衣服で3D人間を作る方法であるECONについて述べる。
布を被った人の正面と後方の詳細な2Dマップを推測する。
d-BiNI曲面の間の欠測幾何を「塗装」する。
論文 参考訳(メタデータ) (2022-12-14T18:59:19Z) - Neural Capture of Animatable 3D Human from Monocular Video [38.974181971541846]
本稿では,モノクラービデオ入力からアニマタブルな3次元人間の表現を構築するための新しいパラダイムを提案する。
本手法は,メッシュをベースとしたパラメトリックな3次元人体モデルを用いた動的ニューラルレージアンス場(NeRF)に基づく。
論文 参考訳(メタデータ) (2022-08-18T09:20:48Z) - Single-view 3D Body and Cloth Reconstruction under Complex Poses [37.86174829271747]
既存の暗黙の関数ベースモデルを拡張して、任意のポーズと自己排他的な手足を持つ人間の画像を扱う。
入力画像を低精細度で3次元のボディ形状にマッピングする暗黙の関数を学習する。
次に、スムーズな表面を条件とした変位マップを学習し、衣服や身体の高周波の詳細を符号化する。
論文 参考訳(メタデータ) (2022-05-09T07:34:06Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。