論文の概要: BCNet: Learning Body and Cloth Shape from A Single Image
- arxiv url: http://arxiv.org/abs/2004.00214v2
- Date: Mon, 3 Aug 2020 10:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:22:50.292345
- Title: BCNet: Learning Body and Cloth Shape from A Single Image
- Title(参考訳): BCNet: シングルイメージから身体と衣服の形状を学ぶ
- Authors: Boyi Jiang, Juyong Zhang, Yang Hong, Jinhao Luo, Ligang Liu and Hujun
Bao
- Abstract要約: SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
- 参考スコア(独自算出の注目度): 56.486796244320125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem to automatically reconstruct garment
and body shapes from a single near-front view RGB image. To this end, we
propose a layered garment representation on top of SMPL and novelly make the
skinning weight of garment independent of the body mesh, which significantly
improves the expression ability of our garment model. Compared with existing
methods, our method can support more garment categories and recover more
accurate geometry. To train our model, we construct two large scale datasets
with ground truth body and garment geometries as well as paired color images.
Compared with single mesh or non-parametric representation, our method can
achieve more flexible control with separate meshes, makes applications like
re-pose, garment transfer, and garment texture mapping possible. Code and some
data is available at https://github.com/jby1993/BCNet.
- Abstract(参考訳): 本稿では,1枚の近景RGB画像から衣服や身体の形状を自動再構成する問題を考察する。
この目的のために,SMPL上に重ねられた衣服表現を提案し,ボディメッシュから独立して衣服のスキン重量を斬新にすることで,衣服モデルの表現能力を大幅に向上させる。
既存の手法と比較すると,より多くの衣料品カテゴリをサポートし,より正確な形状を復元できる。
本モデルでは,2つの大規模データセットを,地上の真理体と衣服のジオメトリーとペアカラー画像で構築する。
単一メッシュや非パラメトリック表現と比較して,別々のメッシュでより柔軟な制御が可能であり,再配置や衣服の移動,衣服のテクスチャマッピングといった応用が可能となる。
コードといくつかのデータはhttps://github.com/jby1993/bcnetで入手できる。
関連論文リスト
- SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z) - DeepCloth: Neural Garment Representation for Shape and Style Editing [37.595804908189855]
我々はDeepClothと呼ばれる新しい手法を導入し、統一された衣服表現フレームワークを構築した。
我々のキーとなる考え方は「マスク付きUV配置マップ」による衣服形状の表現である。
上記のUV空間から連続的な特徴空間を学習し、衣服形状の編集と遷移を可能にする。
論文 参考訳(メタデータ) (2020-11-30T08:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。