論文の概要: CloSET: Modeling Clothed Humans on Continuous Surface with Explicit
Template Decomposition
- arxiv url: http://arxiv.org/abs/2304.03167v1
- Date: Thu, 6 Apr 2023 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 13:43:34.386080
- Title: CloSET: Modeling Clothed Humans on Continuous Surface with Explicit
Template Decomposition
- Title(参考訳): CloSET: 明示的なテンプレート分解による連続表面におけるクローンヒトのモデリング
- Authors: Hongwen Zhang, Siyou Lin, Ruizhi Shao, Yuxiang Zhang, Zerong Zheng,
Han Huang, Yandong Guo, Yebin Liu
- Abstract要約: そこで我々は,明示的な衣服関連テンプレートを分解し,それらにポーズ依存のしわを加えることを提案する。
近年の最先端のポイントベース手法におけるシームアーティファクト問題に対処するために,体表面の点特徴を学習することを提案する。
我々のアプローチは、既存の2つのデータセットと、新しく導入されたデータセットで検証され、見当たらないポーズで服の変形結果が改善された。
- 参考スコア(独自算出の注目度): 36.39531876183322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating animatable avatars from static scans requires the modeling of
clothing deformations in different poses. Existing learning-based methods
typically add pose-dependent deformations upon a minimally-clothed mesh
template or a learned implicit template, which have limitations in capturing
details or hinder end-to-end learning. In this paper, we revisit point-based
solutions and propose to decompose explicit garment-related templates and then
add pose-dependent wrinkles to them. In this way, the clothing deformations are
disentangled such that the pose-dependent wrinkles can be better learned and
applied to unseen poses. Additionally, to tackle the seam artifact issues in
recent state-of-the-art point-based methods, we propose to learn point features
on a body surface, which establishes a continuous and compact feature space to
capture the fine-grained and pose-dependent clothing geometry. To facilitate
the research in this field, we also introduce a high-quality scan dataset of
humans in real-world clothing. Our approach is validated on two existing
datasets and our newly introduced dataset, showing better clothing deformation
results in unseen poses. The project page with code and dataset can be found at
https://www.liuyebin.com/closet.
- Abstract(参考訳): 静的スキャンからアニマタブルなアバターを作成するには、異なるポーズで衣服の変形をモデル化する必要がある。
既存の学習ベースの方法は、通常、最小限のクロースされたメッシュテンプレートや学習された暗黙のテンプレートにポーズ依存の変形を追加する。
本稿では,ポイントベースの解を再検討し,明示的な衣料関連テンプレートを分解し,ポーズ依存のしわを加えることを提案する。
このようにして、衣服の変形は、ポーズ依存のしわをよりよく学習し、目に見えないポーズに適用できるように、切り離される。
さらに,最近の最先端のポイントベース手法におけるseamアーティファクト問題に取り組むために,身体表面の点特徴を学習し,細粒度およびポーズ依存の衣服形状を捉えるための連続的かつコンパクトな特徴空間を確立することを提案する。
この分野での研究を容易にするために,実世界の衣服における人間の高品質スキャンデータセットも紹介する。
提案手法は,既存の2つのデータセットと新たに導入したデータセット上で検証され,着衣変形の結果が見当たらない状態になることを示す。
コードとデータセットを備えたプロジェクトページはhttps://www.liuyebin.com/closet.comで見ることができる。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - Learning Implicit Templates for Point-Based Clothed Human Modeling [33.6247548142638]
衣服のアバターをモデル化するフレームワークFITEについて述べる。
当社のフレームワークはまず,粗い衣服のトポロジーを表す表面テンプレートを暗黙的に学習する。
我々はテンプレートを用いて点集合の生成をガイドし、シワのようなポーズ依存の衣服の変形をさらに捉えている。
論文 参考訳(メタデータ) (2022-07-14T14:25:36Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。