論文の概要: ARCH: Animatable Reconstruction of Clothed Humans
- arxiv url: http://arxiv.org/abs/2004.04572v2
- Date: Fri, 10 Apr 2020 19:14:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:46:31.063609
- Title: ARCH: Animatable Reconstruction of Clothed Humans
- Title(参考訳): アーチ : 衣服の人間像の再構築
- Authors: Zeng Huang, Yuanlu Xu, Christoph Lassner, Hao Li, Tony Tung
- Abstract要約: ARCH(Animatable Reconstruction of Clothed Humans)は、モノクロ画像からアニメーション可能な3D衣服を正確に再構築するためのエンドツーエンドのフレームワークである。
ARCHは、単一の制約のないRGB画像から、詳細な3Dリップされたフルボディアバターを生成する、学習されたポーズ認識モデルである。
- 参考スコア(独自算出の注目度): 27.849315613277724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose ARCH (Animatable Reconstruction of Clothed Humans),
a novel end-to-end framework for accurate reconstruction of animation-ready 3D
clothed humans from a monocular image. Existing approaches to digitize 3D
humans struggle to handle pose variations and recover details. Also, they do
not produce models that are animation ready. In contrast, ARCH is a learned
pose-aware model that produces detailed 3D rigged full-body human avatars from
a single unconstrained RGB image. A Semantic Space and a Semantic Deformation
Field are created using a parametric 3D body estimator. They allow the
transformation of 2D/3D clothed humans into a canonical space, reducing
ambiguities in geometry caused by pose variations and occlusions in training
data. Detailed surface geometry and appearance are learned using an implicit
function representation with spatial local features. Furthermore, we propose
additional per-pixel supervision on the 3D reconstruction using opacity-aware
differentiable rendering. Our experiments indicate that ARCH increases the
fidelity of the reconstructed humans. We obtain more than 50% lower
reconstruction errors for standard metrics compared to state-of-the-art methods
on public datasets. We also show numerous qualitative examples of animated,
high-quality reconstructed avatars unseen in the literature so far.
- Abstract(参考訳): 本稿では,モノクロ画像からアニメーション対応の3D衣服を正確に再現するための,新しいエンドツーエンドフレームワークであるARCH(Animatable Reconstruction of Clothed Humans)を提案する。
既存の3D人間のデジタル化アプローチでは、ポーズのバリエーションや詳細の復元に苦労している。
また、アニメーションの準備ができているモデルも生成しない。
対照的に、ARCHは学習されたポーズ認識モデルであり、単一の制約のないRGB画像から詳細な3Dリップされたフルボディアバターを生成する。
パラメトリック3Dボディ推定器を用いて、セマンティック空間とセマンティック変形場を作成する。
2d/3dの服を着た人間の正準空間への変換を可能にし、トレーニングデータのポーズの変化やオクルージョンによる幾何学の曖昧さを減らす。
空間的局所的特徴を持つ暗黙の関数表現を用いて、詳細な表面形状と外観を学習する。
さらに,不透明な識別可能なレンダリングを用いた3次元再構成における画素単位の監視を提案する。
我々の実験は、ARCHが再建された人間の忠実度を高めることを示唆している。
公開データセットの最先端手法と比較して,標準メトリクスの復元誤差が50%以上低い。
また,これまでの文献にない,アニメーションで高品質なアバターの質的例も数多く紹介している。
関連論文リスト
- AniGS: Animatable Gaussian Avatar from a Single Image with Inconsistent Gaussian Reconstruction [26.82525451095629]
本稿では,不整合画像の3次元再構成のためのロバストな手法を提案し,推論中のリアルタイムレンダリングを実現する。
再建問題を4次元課題として再検討し, 4次元ガウススプラッティングを用いた効率的な3次元モデリング手法を提案する。
実験により,本手法は3次元人体アバターの光実写・リアルタイムアニメーションを実現する。
論文 参考訳(メタデータ) (2024-12-03T18:55:39Z) - AvatarGen: A 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、様々な外観と制御可能なジオメトリーを持つ3D認識された人間の無監督世代である。
提案手法は, 高品質な外観と幾何学的モデリングにより, アニマタブルな3次元アバターを生成することができる。
シングルビュー再構成、再アニメーション、テキスト誘導合成/編集など、多くのアプリケーションに向いている。
論文 参考訳(メタデータ) (2022-11-26T15:15:45Z) - Realistic, Animatable Human Reconstructions for Virtual Fit-On [0.7649716717097428]
個人化された3D人間モデルに異なる衣服を合わせることができるエンドツーエンドの仮想試着パイプラインを提案する。
本研究の主な目的は、3次元仮想環境において、アニマタブルな3次元人間モデルを構築し、異なる衣服を試着することである。
論文 参考訳(メタデータ) (2022-10-16T13:36:24Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - SHARP: Shape-Aware Reconstruction of People in Loose Clothing [6.469298908778292]
SHARP(Shape Aware Reconstruction of People in loose clothes)は、エンド・ツー・エンドのトレーニング可能な新しいネットワークである。
モノクロ画像から、ゆるい服を着た人間の3D形状と外観を復元する。
従来の最先端手法よりも質的かつ定量的な性能を示す。
論文 参考訳(メタデータ) (2022-05-24T10:26:42Z) - MVP-Human Dataset for 3D Human Avatar Reconstruction from Unconstrained
Frames [59.37430649840777]
野生(Arwild)における3次元アバター再構成を行い,まず暗黙のスキンフィールドを多段階的に再構成する。
大規模なデータセットであるMVP-Humanには400人の被験者が参加し、それぞれ異なるポーズで15のスキャンを行います。
全体として、特定のネットワークアーキテクチャと多様なデータにより、トレーニングされたモデルは、制約のないフレームから3Dアバターを再構築することができる。
論文 参考訳(メタデータ) (2022-04-24T03:57:59Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - ARCH++: Animation-Ready Clothed Human Reconstruction Revisited [82.83445332309238]
任意の服装スタイルで3Dアバターを再構成する画像ベースARCH++を提案する。
再建されたアバターは、入力ビューから見える領域と見えない領域の両方において、アニメーションに対応しており、非常にリアルである。
論文 参考訳(メタデータ) (2021-08-17T19:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。