論文の概要: Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On
- arxiv url: http://arxiv.org/abs/2105.06462v1
- Date: Thu, 13 May 2021 17:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:56:02.567534
- Title: Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On
- Title(参考訳): 仮想トライオンのための生成3次元ガーメントモデルによる自己監督型衝突処理
- Authors: Igor Santesteban, Nils Thuerey, Miguel A. Otaduy, Dan Casas
- Abstract要約: 本稿では,仮想試行のためのデータ駆動方式を初めて学習することのできる3次元衣服の変形生成モデルを提案する。
本手法は, 実感やディテールを損なうことなく, 被着体接触を目立たない身体形状や動作で解決した最初の方法であることを示す。
- 参考スコア(独自算出の注目度): 29.458328272854107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a new generative model for 3D garment deformations that enables us
to learn, for the first time, a data-driven method for virtual try-on that
effectively addresses garment-body collisions. In contrast to existing methods
that require an undesirable postprocessing step to fix garment-body
interpenetrations at test time, our approach directly outputs 3D garment
configurations that do not collide with the underlying body. Key to our success
is a new canonical space for garments that removes pose-and-shape deformations
already captured by a new diffused human body model, which extrapolates body
surface properties such as skinning weights and blendshapes to any 3D point. We
leverage this representation to train a generative model with a novel
self-supervised collision term that learns to reliably solve garment-body
interpenetrations. We extensively evaluate and compare our results with
recently proposed data-driven methods, and show that our method is the first to
successfully address garment-body contact in unseen body shapes and motions,
without compromising realism and detail.
- Abstract(参考訳): 本研究では, 仮想試行錯誤を効果的に処理するデータ駆動型仮想試行法を, 初めて学習できる新しい3次元衣服変形生成モデルを提案する。
テスト時に被服体間を固定するために不要な後処理ステップを必要とする既存の手法とは対照的に,本手法では被服体と衝突しない3D衣服構成を直接出力する。
私たちの成功の鍵は、新しい拡散人体モデルによって既に捕獲されたポーズと形状の変形を除去し、肌の重みやブレンド形状などの体表面特性を任意の3dポイントに推定する、衣料の新たな標準空間です。
我々は,この表現を活用して,衣服本体の相互接続を確実に解き明かす新しい自己教師型衝突項で生成モデルを訓練する。
本研究では,最近提案したデータ駆動手法と比較し,本手法が現実性や細部を損なうことなく,不明瞭な身体形状や動きの身体接触に対処する最初の方法であることを示す。
関連論文リスト
- Dress-Me-Up: A Dataset & Method for Self-Supervised 3D Garment
Retargeting [28.892029042436626]
任意の形状とポーズの3次元アバターに非パラメトリック化3次元衣服の新たな枠組みを提案する。
既存の3D手法はパラメトリック・カノニカル・ウェアのみをサポートする。
既存の最先端手法に比べて,非教師なし服や人間のアバターに優れた品質を示す。
論文 参考訳(メタデータ) (2024-01-06T02:28:25Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。