論文の概要: xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image
- arxiv url: http://arxiv.org/abs/2208.12934v1
- Date: Sat, 27 Aug 2022 05:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:54:03.060768
- Title: xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image
- Title(参考訳): xcloth:単眼像からのテンプレートフリーテクスチャ3d衣服の抽出
- Authors: Astitva Srivastava, Chandradeep Pokhariya, Sai Sagar Jinka and Avinash
Sharma
- Abstract要約: テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
- 参考スコア(独自算出の注目度): 4.056667956036515
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing approaches for 3D garment reconstruction either assume a predefined
template for the garment geometry (restricting them to fixed clothing styles)
or yield vertex colored meshes (lacking high-frequency textural details). Our
novel framework co-learns geometric and semantic information of garment surface
from the input monocular image for template-free textured 3D garment
digitization. More specifically, we propose to extend PeeledHuman
representation to predict the pixel-aligned, layered depth and semantic maps to
extract 3D garments. The layered representation is further exploited to UV
parametrize the arbitrary surface of the extracted garment without any human
intervention to form a UV atlas. The texture is then imparted on the UV atlas
in a hybrid fashion by first projecting pixels from the input image to UV space
for the visible region, followed by inpainting the occluded regions. Thus, we
are able to digitize arbitrarily loose clothing styles while retaining
high-frequency textural details from a monocular image. We achieve
high-fidelity 3D garment reconstruction results on three publicly available
datasets and generalization on internet images.
- Abstract(参考訳): 既存の3D衣料復元のアプローチでは、衣服幾何学の事前定義されたテンプレート(固定された衣服スタイルに制限する)を仮定するか、頂点色のメッシュ(高周波のテクスチャの詳細を遅延させる)を生成する。
入力単眼画像から衣服表面の幾何学的・意味的な情報を学習し, テンプレートレステクスチャ化された3次元衣料のデジタル化を行う。
具体的には,PeledHuman表現を拡張して,画素アライメント,階層化深度,セマンティックマップを推定し,3D衣服の抽出を提案する。
層状表現は、UVアトラスを形成するための人間の介入なしに、抽出された衣服の任意の表面をUVパラメトリゼーションするためにさらに利用される。
次に、入力画像から可視領域の紫外空間に最初に画素を投影し、その後、隠蔽領域に塗布することにより、ハイブリッド方式で紫外線アトラスにテクスチャを付与する。
これにより、単眼画像から高周波テクスチャ詳細を保ちつつ、任意にゆるやかな服装スタイルをデジタル化することができる。
3つのデータセットで高精度な3d衣料復元を行い,インターネット画像の一般化を行った。
関連論文リスト
- FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - A Generative Multi-Resolution Pyramid and Normal-Conditioning 3D Cloth
Draping [37.77353302404437]
条件付き変分オートエンコーダを試作し,3次元衣服の生成と描画を行う。
正準空間に衣服の詳細を段階的に付加するピラミッドネットワークを提案する。
CLOTH3DとCAPEの2つの公開データセットによる結果から,モデルが堅牢で,詳細生成の点で制御可能であることが示された。
論文 参考訳(メタデータ) (2023-11-05T16:12:48Z) - Normal-guided Garment UV Prediction for Human Re-texturing [45.710312986737975]
3次元再構成を行なわずに、人間の着飾った画像や動画を編集できることが示される。
当社のアプローチでは, 衣服の基本的な形状を自己監督的に捉えている。
提案手法は, 実データと合成データの両方において, 最先端のUVマップ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-11T22:18:18Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Robust 3D Garment Digitization from Monocular 2D Images for 3D Virtual
Try-On Systems [1.7394606468019056]
我々は,現実のファッションカタログ画像によく応用できる,堅牢な3次元衣料デジタル化ソリューションを開発した。
教師付き深層ネットワークをトレーニングしてランドマーク予測とテクスチャ塗布作業を行い,大量の合成データを生成した。
オンラインファッションのeコマースプラットフォームから収集した、小さなファッションカタログ画像に手動で注釈を付けました。
論文 参考訳(メタデータ) (2021-11-30T05:49:23Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。