論文の概要: DeepIron: Predicting Unwarped Garment Texture from a Single Image
- arxiv url: http://arxiv.org/abs/2310.15447v1
- Date: Tue, 24 Oct 2023 01:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 21:03:38.983690
- Title: DeepIron: Predicting Unwarped Garment Texture from a Single Image
- Title(参考訳): DeepIron:1枚の画像から未処理のガーメントテクスチャを予測する
- Authors: Hyun-Song Kwon, Sung-Hee Lee
- Abstract要約: 本稿では,1枚の写真から3次元衣料のテクスチャマップを再構築する新しい枠組みを提案する。
私たちのフレームワークのキーコンポーネントであるTexture Unwarperは、入力された衣料品画像から元のテクスチャイメージを推測する。
入力された衣服の本来のテクスチャを推定することにより、新しいポーズのためにリアルに変形した高品質なテクスチャ画像を表示することができる3D衣料モデルの再構築を支援する。
- 参考スコア(独自算出の注目度): 9.427635404752934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic reconstruction of 3D clothing from an image has wide applications,
such as avatar creation and virtual try-on. This paper presents a novel
framework that reconstructs the texture map for 3D garments from a single image
with pose. Assuming that 3D garments are modeled by stitching 2D garment sewing
patterns, our specific goal is to generate a texture image for the sewing
patterns. A key component of our framework, the Texture Unwarper, infers the
original texture image from the input clothing image, which exhibits warping
and occlusion of texture due to the user's body shape and pose. The Texture
Unwarper effectively transforms between the input and output images by mapping
the latent spaces of the two images. By inferring the unwarped original texture
of the input garment, our method helps reconstruct 3D garment models that can
show high-quality texture images realistically deformed for new poses. We
validate the effectiveness of our approach through a comparison with other
methods and ablation studies. Additionally, we release a large dataset of
garment sewing patterns with textures and images of avatars wearing the
garments, which will be useful for future research on garment texture
reconstruction and synthesis.
- Abstract(参考訳): 画像からの3D衣服のリアルな再構築は、アバター作成や仮想試着など幅広い応用がある。
本稿では,1枚の写真から3次元衣料のテクスチャマップを再構築する新しい枠組みを提案する。
2次元縫製パターンを縫い合わせることで3D衣服をモデル化すると、その具体的目的は縫製パターンのテクスチャ画像を作成することである。
本フレームワークの重要な構成要素であるテクスチュア・アンワーパーは、入力された衣服画像から本来のテクスチャイメージを推測し、ユーザの身体形状やポーズによるテクスチャのゆらぎと隠蔽を示す。
Texture Unwarperは、2つの画像の潜在空間をマッピングすることで、入力画像と出力画像の間で効果的に変換する。
入力された衣服の本来のテクスチャを推定することで、新しいポーズのためにリアルに変形した高品質なテクスチャ画像を表示できる3d衣料モデルの再構築を支援する。
他の方法との比較とアブレーション研究を通じて,本手法の有効性を検証する。
さらに, 衣服を装着したアバターのテクスチャやイメージを付加した衣服縫製パターンの大規模データセットを公開し, 今後, テクスチャの再構築と合成研究に役立てる予定である。
関連論文リスト
- FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - Generating Animatable 3D Cartoon Faces from Single Portraits [51.15618892675337]
1枚のポートレート画像からアニマタブルな3Dマンガの顔を生成するための新しい枠組みを提案する。
本研究では,3次元マンガの顔のテクスチャを再現する2段階再構築手法を提案する。
最後に,手作業によるテンプレート作成と変形伝達に基づく意味保存顔リギング手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T04:12:50Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - Robust 3D Garment Digitization from Monocular 2D Images for 3D Virtual
Try-On Systems [1.7394606468019056]
我々は,現実のファッションカタログ画像によく応用できる,堅牢な3次元衣料デジタル化ソリューションを開発した。
教師付き深層ネットワークをトレーニングしてランドマーク予測とテクスチャ塗布作業を行い,大量の合成データを生成した。
オンラインファッションのeコマースプラットフォームから収集した、小さなファッションカタログ画像に手動で注釈を付けました。
論文 参考訳(メタデータ) (2021-11-30T05:49:23Z) - Learning to Transfer Texture from Clothing Images to 3D Humans [50.838970996234465]
そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
論文 参考訳(メタデータ) (2020-03-04T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。