論文の概要: Normal-guided Garment UV Prediction for Human Re-texturing
- arxiv url: http://arxiv.org/abs/2303.06504v1
- Date: Sat, 11 Mar 2023 22:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 18:43:07.759383
- Title: Normal-guided Garment UV Prediction for Human Re-texturing
- Title(参考訳): ヒューマン・リテクスチャのための正常誘導ガーメントUV予測
- Authors: Yasamin Jafarian, Tuanfeng Y. Wang, Duygu Ceylan, Jimei Yang, Nathan
Carr, Yi Zhou, Hyun Soo Park
- Abstract要約: 3次元再構成を行なわずに、人間の着飾った画像や動画を編集できることが示される。
当社のアプローチでは, 衣服の基本的な形状を自己監督的に捉えている。
提案手法は, 実データと合成データの両方において, 最先端のUVマップ推定手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 45.710312986737975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clothes undergo complex geometric deformations, which lead to appearance
changes. To edit human videos in a physically plausible way, a texture map must
take into account not only the garment transformation induced by the body
movements and clothes fitting, but also its 3D fine-grained surface geometry.
This poses, however, a new challenge of 3D reconstruction of dynamic clothes
from an image or a video. In this paper, we show that it is possible to edit
dressed human images and videos without 3D reconstruction. We estimate a
geometry aware texture map between the garment region in an image and the
texture space, a.k.a, UV map. Our UV map is designed to preserve isometry with
respect to the underlying 3D surface by making use of the 3D surface normals
predicted from the image. Our approach captures the underlying geometry of the
garment in a self-supervised way, requiring no ground truth annotation of UV
maps and can be readily extended to predict temporally coherent UV maps. We
demonstrate that our method outperforms the state-of-the-art human UV map
estimation approaches on both real and synthetic data.
- Abstract(参考訳): 衣服は複雑な幾何学的変形を受け、外観が変化する。
人間の映像を物理的に妥当な方法で編集するには、テクスチャマップは体の動きや衣服のフィッティングによって引き起こされる衣服の変化だけでなく、3Dの微細な表面形状も考慮しなければならない。
しかしこれは、画像やビデオからダイナミックな服を3Dで再現する、という新しい挑戦だ。
本稿では,3次元再構成を行なわずに着飾った人間の画像や映像を編集できることを示す。
画像中の衣服領域とテクスチャ空間,すなわちUVマップとの間の幾何学的認識テクスチャマップを推定する。
uvマップは,画像から予測した3次元表面正規値を用いて,基礎となる3次元表面に対する等尺性を保つように設計されている。
提案手法では,UVマップの真理アノテーションを必要とせず,時間的コヒーレントなUVマップの予測に容易に拡張することができる。
本手法は,実データと合成データの両方において最先端のuvマップ推定手法よりも優れていることを示す。
関連論文リスト
- Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Weakly-Supervised Photo-realistic Texture Generation for 3D Face
Reconstruction [48.952656891182826]
高忠実度3D顔テクスチャ生成についてはまだ研究されていない。
モデルはUVサンプリング器とUVジェネレータで構成される。
トレーニングは、3DMMテクスチャと入力顔テクスチャでブレンドされた擬似地上真実に基づいている。
論文 参考訳(メタデータ) (2021-06-14T12:34:35Z) - Learning High Fidelity Depths of Dressed Humans by Watching Social Media
Dance Videos [21.11427729302936]
本稿では,その人物の予測された局所形状を,別の瞬間に画像から別の画像へ警告する局所変換を用いた新しい手法を提案する。
本手法はエンドツーエンドで訓練可能であり,入力実画像に忠実な微細形状を予測できる高忠実度深さ推定を行う。
論文 参考訳(メタデータ) (2021-03-04T20:46:30Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。