論文の概要: SMPLicit: Topology-aware Generative Model for Clothed People
- arxiv url: http://arxiv.org/abs/2103.06871v1
- Date: Thu, 11 Mar 2021 18:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:42:56.090919
- Title: SMPLicit: Topology-aware Generative Model for Clothed People
- Title(参考訳): SMPLicit: 衣服のトポロジーを意識した生成モデル
- Authors: Enric Corona, Albert Pumarola, Guillem Aleny\`a, Gerard Pons-Moll,
Francesc Moreno-Noguer
- Abstract要約: SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
- 参考スコア(独自算出の注目度): 65.84665248796615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce SMPLicit, a novel generative model to jointly
represent body pose, shape and clothing geometry. In contrast to existing
learning-based approaches that require training specific models for each type
of garment, SMPLicit can represent in a unified manner different garment
topologies (e.g. from sleeveless tops to hoodies and to open jackets), while
controlling other properties like the garment size or tightness/looseness. We
show our model to be applicable to a large variety of garments including
T-shirts, hoodies, jackets, shorts, pants, skirts, shoes and even hair. The
representation flexibility of SMPLicit builds upon an implicit model
conditioned with the SMPL human body parameters and a learnable latent space
which is semantically interpretable and aligned with the clothing attributes.
The proposed model is fully differentiable, allowing for its use into larger
end-to-end trainable systems. In the experimental section, we demonstrate
SMPLicit can be readily used for fitting 3D scans and for 3D reconstruction in
images of dressed people. In both cases we are able to go beyond state of the
art, by retrieving complex garment geometries, handling situations with
multiple clothing layers and providing a tool for easy outfit editing. To
stimulate further research in this direction, we will make our code and model
publicly available at http://www.iri.upc.edu/people/ecorona/smplicit/.
- Abstract(参考訳): 本稿では,身体のポーズ,形状,衣服の形状を共同で表現する新しい生成モデルであるSMPLicitを紹介する。
SMPLicitは、各種類の衣服の特定のモデルを訓練する必要がある既存の学習ベースのアプローチとは対照的に、統一された方法で異なる衣服トポロジ(例えば、SMPLicit)を表現できる。
スリーブレストップからパーカー、オープンジャケットまで)、衣服のサイズやタイトさ/緩みなどの他の特性を制御しながら。
本モデルは,tシャツ,パーカー,ジャケット,ショートパンツ,パンツ,スカート,靴,さらには髪まで,多種多様な衣服に適用できることを示す。
SMPLicitの表現の柔軟性は、SMPLの人体パラメータと、服の属性にセマンティックに解釈可能で整合した学習可能な潜在空間を条件とした暗黙のモデルに基づいている。
提案モデルは完全に差別化可能であり、より大きなエンドツーエンドのトレーニング可能なシステムへの使用を可能にする。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
いずれの場合も、複雑な衣料品のジオメトリを検索し、複数の衣料品層で状況を処理し、簡単に衣料品の編集ができるツールを提供することで、最先端を越えられる。
この方向のさらなる研究を促進するため、コードとモデルをhttp://www.iri.upc.edu/people/ecorona/smplicit/で公開します。
関連論文リスト
- Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。