論文の概要: Realistic, Animatable Human Reconstructions for Virtual Fit-On
- arxiv url: http://arxiv.org/abs/2210.08535v1
- Date: Sun, 16 Oct 2022 13:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 22:01:15.287921
- Title: Realistic, Animatable Human Reconstructions for Virtual Fit-On
- Title(参考訳): 仮想フィットオンのためのリアルでアニマタブルな人間再構成
- Authors: Gayal Kuruppu, Bumuthu Dilshan, Shehan Samarasinghe, Nipuna Madhushan,
Ranga Rodrigo
- Abstract要約: 個人化された3D人間モデルに異なる衣服を合わせることができるエンドツーエンドの仮想試着パイプラインを提案する。
本研究の主な目的は、3次元仮想環境において、アニマタブルな3次元人間モデルを構築し、異なる衣服を試着することである。
- 参考スコア(独自算出の注目度): 0.7649716717097428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an end-to-end virtual try-on pipeline, that can fit different
clothes on a personalized 3-D human model, reconstructed using a single RGB
image. Our main idea is to construct an animatable 3-D human model and try-on
different clothes in a 3-D virtual environment. The existing frame by frame
volumetric reconstruction of 3-D human models are highly resource-demanding and
do not allow clothes switching. Moreover, existing virtual fit-on systems also
lack realism due to predominantly being 2-D or not using user's features in the
reconstruction. These shortcomings are due to either the human body or clothing
model being 2-D or not having the user's facial features in the dressed model.
We solve these problems by manipulating a parametric representation of the 3-D
human body model and stitching a head model reconstructed from the actual
image. Fitting the 3-D clothing models on the parameterized human model is also
adjustable to the body shape of the input image. Our reconstruction results, in
comparison with recent existing work, are more visually-pleasing.
- Abstract(参考訳): 我々は,1枚のRGB画像を用いて再構築した3次元人体モデルに,異なる衣服を適合させることができるエンドツーエンド仮想試着パイプラインを提案する。
私たちの主なアイデアは、3d仮想環境において、アニメーション可能な3d人間モデルを構築し、異なる服を試着することです。
3次元モデルのフレーム体積再構成による既存のフレームは、資源需要が高く、衣服の切替えを許さない。
さらに、既存の仮想フィットオンシステムは、主に2次元であるか、再構成にユーザの機能を使わないために、リアリズムを欠いている。
これらの欠点は、人体または衣服モデルが2dであるか、服装モデルにユーザーの顔の特徴がないためである。
3次元人体モデルのパラメトリック表現を操作し、実際の画像から再構成した頭部モデルを縫い合わせることにより、これらの問題を解決する。
パラメータ化された人体モデルに3次元衣料モデルを適合させることも入力画像の身体形状に調整可能である。
再建の成果は,近年の成果と比べ,より視覚的に改善されている。
関連論文リスト
- Cloth2Body: Generating 3D Human Body Mesh from 2D Clothing [54.29207348918216]
Cloth2Bodyは、入力の部分的な観察と出力の多様性によって引き起こされる新しい課題に対処する必要がある。
本稿では,2次元衣料品画像のポーズと形状によってパラメータ化された3Dボディメッシュを高精度に推定できるエンドツーエンドフレームワークを提案する。
実験結果から示されるように,提案手法は最先端の性能を実現し,自然および多様な3Dボディメッシュを2次元画像から効果的に回収することができる。
論文 参考訳(メタデータ) (2023-09-28T06:18:38Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z) - ARCH: Animatable Reconstruction of Clothed Humans [27.849315613277724]
ARCH(Animatable Reconstruction of Clothed Humans)は、モノクロ画像からアニメーション可能な3D衣服を正確に再構築するためのエンドツーエンドのフレームワークである。
ARCHは、単一の制約のないRGB画像から、詳細な3Dリップされたフルボディアバターを生成する、学習されたポーズ認識モデルである。
論文 参考訳(メタデータ) (2020-04-08T14:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。