論文の概要: Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images
- arxiv url: http://arxiv.org/abs/2003.12753v2
- Date: Sat, 4 Jul 2020 12:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:45:32.862374
- Title: Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images
- Title(参考訳): Deep Fashion3D: 単一画像からの3次元ガーメント再構成のためのデータセットとベンチマーク
- Authors: Heming Zhu, Yu Cao, Hang Jin, Weikai Chen, Dong Du, Zhangye Wang,
Shuguang Cui, Xiaoguang Han
- Abstract要約: Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
- 参考スコア(独自算出の注目度): 50.34202789543989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-fidelity clothing reconstruction is the key to achieving photorealism in
a wide range of applications including human digitization, virtual try-on, etc.
Recent advances in learning-based approaches have accomplished unprecedented
accuracy in recovering unclothed human shape and pose from single images,
thanks to the availability of powerful statistical models, e.g. SMPL, learned
from a large number of body scans. In contrast, modeling and recovering clothed
human and 3D garments remains notoriously difficult, mostly due to the lack of
large-scale clothing models available for the research community. We propose to
fill this gap by introducing Deep Fashion3D, the largest collection to date of
3D garment models, with the goal of establishing a novel benchmark and dataset
for the evaluation of image-based garment reconstruction systems. Deep
Fashion3D contains 2078 models reconstructed from real garments, which covers
10 different categories and 563 garment instances. It provides rich annotations
including 3D feature lines, 3D body pose and the corresponded multi-view real
images. In addition, each garment is randomly posed to enhance the variety of
real clothing deformations. To demonstrate the advantage of Deep Fashion3D, we
propose a novel baseline approach for single-view garment reconstruction, which
leverages the merits of both mesh and implicit representations. A novel
adaptable template is proposed to enable the learning of all types of clothing
in a single network. Extensive experiments have been conducted on the proposed
dataset to verify its significance and usefulness. We will make Deep Fashion3D
publicly available upon publication.
- Abstract(参考訳): 高忠実な服の復元は、人間のデジタル化や仮想試着など、幅広い応用においてフォトリアリズムを実現するための鍵である。
学習に基づくアプローチの最近の進歩は、多数の身体スキャンから学んだ強力な統計モデル(SMPLなど)が利用可能であることから、未着衣のヒトの形状を復元し、単一の画像からポーズする上で、前例のない精度を達成している。
対照的に、人間の衣服と3D服のモデリングと復元は、研究コミュニティで利用可能な大規模な衣服モデルが不足していることから、非常に難しい。
本稿では,3次元衣料モデルの最大コレクションであるDeep Fashion3Dを導入することで,このギャップを埋めることを提案する。
deep fashion3dには、10の異なるカテゴリと533の衣料品を対象とする、本物の衣料品から復元された2078のモデルが含まれている。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
また、各衣料品をランダムにポーズして実際の衣料変形の多様性を高める。
深層ファッション3dの利点を実証するために,メッシュ表現と暗黙表現の両方の利点を生かした単視点衣服復元のための新しいベースラインアプローチを提案する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
提案するデータセットについて,その意義と有用性を検証するために広範な実験が行われている。
Deep Fashion3Dを公開して公開します。
関連論文リスト
- Design2Cloth: 3D Cloth Generation from 2D Masks [34.80461276448817]
我々は2000以上の被験者スキャンから実世界のデータセットをトレーニングした高忠実度3D生成モデルであるDesign2Clothを提案する。
定性的かつ定量的な実験のシリーズでは、Design2Clothが現在の最先端の織物生成モデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T12:32:13Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。