論文の概要: DrapeNet: Generating Garments and Draping them with Self-Supervision
- arxiv url: http://arxiv.org/abs/2211.11277v1
- Date: Mon, 21 Nov 2022 09:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 20:49:48.549206
- Title: DrapeNet: Generating Garments and Draping them with Self-Supervision
- Title(参考訳): DrapeNet: ガーメントの生成とセルフスーパービジョンによるドラッグ
- Authors: Luca De Luigi and Ren Li and Beno\^it Guillard and Mathieu Salzmann
and Pascal Fua
- Abstract要約: 私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
我々の定式化により、部分的な観察から正確な衣服の3Dモデルを復元することができる。
- 参考スコア(独自算出の注目度): 95.0315186890655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches to drape garments quickly over arbitrary human bodies
leverage self-supervision to eliminate the need for large training sets.
However, they are designed to train one network per clothing item, which
severely limits their generalization abilities. In our work, we rely on
self-supervision to train a single network to drape multiple garments. This is
achieved by predicting a 3D deformation field conditioned on the latent codes
of a generative network, which models garments as unsigned distance fields. Our
pipeline can generate and drape previously unseen garments of any topology,
whose shape can be edited by manipulating their latent codes. Being fully
differentiable, our formulation makes it possible to recover accurate 3D models
of garments from partial observations -- images or 3D scans -- via gradient
descent. Our code will be made publicly available.
- Abstract(参考訳): 任意の人体に素早く着る服をドレープする最近のアプローチは、大きなトレーニングセットの必要性をなくすために自己監督を利用する。
しかし,衣料品ごとに1つのネットワークを訓練し,その一般化能力を著しく制限するように設計されている。
私たちの研究では、複数の衣服をドレーピングするために単一のネットワークを訓練するために、自己スーパービジョンに頼っています。
これは、衣服を無符号距離場としてモデル化する生成ネットワークの潜在符号に基づく3次元変形場を予測することによって達成される。
我々のパイプラインは、あらゆるトポロジーの以前は見つからなかった衣服を生成・ドレープすることができ、その形状は潜在コードを操作することで編集できる。
完全に微分可能で,傾斜勾配による部分的観察(画像や3dスキャン)から服の正確な3dモデルを復元することができる。
私たちのコードは公開されます。
関連論文リスト
- Garment3DGen: 3D Garment Stylization and Texture Generation [11.836357439129301]
Garment3DGenは、単一の入力イメージをガイダンスとして与えられたベースメッシュから3Dの衣服資産を合成する新しい方法である。
画像から3Dへの拡散手法の最近の進歩を生かして, 3次元の衣服測地を創出する。
我々は、グローバルかつ局所的に一貫した高忠実なテクスチャマップを生成し、入力ガイダンスを忠実にキャプチャする。
論文 参考訳(メタデータ) (2024-03-27T17:59:33Z) - Layered 3D Human Generation via Semantic-Aware Diffusion Model [63.459666003261276]
本稿では,新しい意味認識拡散モデルに基づくテキスト駆動型3次元人文生成フレームワークを提案する。
生成した衣服を対象のテキストと整合性を保つために,衣服のセマンティック・信頼戦略を提案する。
そこで本研究では,SMPLによる暗黙的フィールド変形ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-10T07:34:43Z) - A Generative Multi-Resolution Pyramid and Normal-Conditioning 3D Cloth
Draping [37.77353302404437]
条件付き変分オートエンコーダを試作し,3次元衣服の生成と描画を行う。
正準空間に衣服の詳細を段階的に付加するピラミッドネットワークを提案する。
CLOTH3DとCAPEの2つの公開データセットによる結果から,モデルが堅牢で,詳細生成の点で制御可能であることが示された。
論文 参考訳(メタデータ) (2023-11-05T16:12:48Z) - Garment4D: Garment Reconstruction from Point Cloud Sequences [12.86951061306046]
異なる形状の3次元人体を異なるポーズで装うためには, 3次元衣服の再構築が重要である。
従来は入力として2D画像に頼っていたが、規模やあいまいさに悩まされていた。
本稿では,衣服の復元に3次元点雲列を用いたGarment4Dを提案する。
論文 参考訳(メタデータ) (2021-12-08T08:15:20Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。