論文の概要: Learning to Transfer Texture from Clothing Images to 3D Humans
- arxiv url: http://arxiv.org/abs/2003.02050v2
- Date: Mon, 30 Mar 2020 23:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:17:43.783190
- Title: Learning to Transfer Texture from Clothing Images to 3D Humans
- Title(参考訳): 衣服画像から3d人間へのテクスチャ伝達の学習
- Authors: Aymen Mir, Thiemo Alldieck, Gerard Pons-Moll
- Abstract要約: そこで本稿では,SMPL上着の3D衣服に衣料画像のテクスチャを自動的にリアルタイムに転送する手法を提案する。
まず, 高精度だが遅い3D-3D登録法を用いて, 整列した3D衣料を用いて, 画像のトレーニングペアを計算した。
我々のモデルは仮想試行のような応用への扉を開き、学習に必要な多様なテクスチャを持つ3D人間を作成できる。
- 参考スコア(独自算出の注目度): 50.838970996234465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a simple yet effective method to automatically
transfer textures of clothing images (front and back) to 3D garments worn on
top SMPL, in real time. We first automatically compute training pairs of images
with aligned 3D garments using a custom non-rigid 3D to 2D registration method,
which is accurate but slow. Using these pairs, we learn a mapping from pixels
to the 3D garment surface. Our idea is to learn dense correspondences from
garment image silhouettes to a 2D-UV map of a 3D garment surface using shape
information alone, completely ignoring texture, which allows us to generalize
to the wide range of web images. Several experiments demonstrate that our model
is more accurate than widely used baselines such as thin-plate-spline warping
and image-to-image translation networks while being orders of magnitude faster.
Our model opens the door for applications such as virtual try-on, and allows
for generation of 3D humans with varied textures which is necessary for
learning.
- Abstract(参考訳): 本稿では,SMPL上着の3D衣服に対して,衣服画像(前後)のテクスチャを自動的にリアルタイムに転送する,シンプルかつ効果的な方法を提案する。
まず,不規則な3dから2dへのカスタム登録手法を用いて,アライメントされた3d衣料品のトレーニングペアを自動的に計算する。
これらのペアを用いて、画素から3次元の衣服表面へのマッピングを学習する。
我々の考えは,3次元衣料品のシルエットから3次元衣料品表面の2D-UVマップへの密接な対応を形状情報だけで学習し,テクスチャを完全に無視することで,幅広いウェブ画像に一般化できるようにすることである。
いくつかの実験により, 薄板スプラインワーピングや画像間変換ネットワークなど, 広く使用されているベースラインよりも精度が高く, 桁違いに高速であることが示された。
我々のモデルは仮想試行のような応用のための扉を開き、学習に必要な様々なテクスチャを持つ3D人間を作成できる。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - DI-Net : Decomposed Implicit Garment Transfer Network for Digital
Clothed 3D Human [75.45488434002898]
既存の2D仮想試行法は、各ピクセルの深さを知覚できないため、直接3Dに拡張することはできない。
本稿では,新たに試みられた3次元メッシュをシームレスに再構築可能な,分解型インプリシト衣服転送ネットワーク(DI-Net)を提案する。
論文 参考訳(メタデータ) (2023-11-28T14:28:41Z) - SCULPT: Shape-Conditioned Unpaired Learning of Pose-dependent Clothed and Textured Human Meshes [62.82552328188602]
SCULPTは,人間の布とテクスチャを用いた3次元メッシュの新規な3次元生成モデルである。
我々は, 被服体の形状と外観分布を表現できるディープニューラルネットワークを考案した。
論文 参考訳(メタデータ) (2023-08-21T11:23:25Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Robust 3D Garment Digitization from Monocular 2D Images for 3D Virtual
Try-On Systems [1.7394606468019056]
我々は,現実のファッションカタログ画像によく応用できる,堅牢な3次元衣料デジタル化ソリューションを開発した。
教師付き深層ネットワークをトレーニングしてランドマーク予測とテクスチャ塗布作業を行い,大量の合成データを生成した。
オンラインファッションのeコマースプラットフォームから収集した、小さなファッションカタログ画像に手動で注釈を付けました。
論文 参考訳(メタデータ) (2021-11-30T05:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。