論文の概要: Neural Point-based Shape Modeling of Humans in Challenging Clothing
- arxiv url: http://arxiv.org/abs/2209.06814v1
- Date: Wed, 14 Sep 2022 17:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 14:03:28.003433
- Title: Neural Point-based Shape Modeling of Humans in Challenging Clothing
- Title(参考訳): 座屈型衣服における人体形状のニューラルポイントモデル
- Authors: Qianli Ma, Jinlong Yang, Michael J. Black, Siyu Tang
- Abstract要約: SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
- 参考スコア(独自算出の注目度): 75.75870953766935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parametric 3D body models like SMPL only represent minimally-clothed people
and are hard to extend to clothing because they have a fixed mesh topology and
resolution. To address these limitations, recent work uses implicit surfaces or
point clouds to model clothed bodies. While not limited by topology, such
methods still struggle to model clothing that deviates significantly from the
body, such as skirts and dresses. This is because they rely on the body to
canonicalize the clothed surface by reposing it to a reference shape.
Unfortunately, this process is poorly defined when clothing is far from the
body. Additionally, they use linear blend skinning to pose the body and the
skinning weights are tied to the underlying body parts. In contrast, we model
the clothing deformation in a local coordinate space without canonicalization.
We also relax the skinning weights to let multiple body parts influence the
surface. Specifically, we extend point-based methods with a coarse stage, that
replaces canonicalization with a learned pose-independent "coarse shape" that
can capture the rough surface geometry of clothing like skirts. We then refine
this using a network that infers the linear blend skinning weights and pose
dependent displacements from the coarse representation. The approach works well
for garments that both conform to, and deviate from, the body. We demonstrate
the usefulness of our approach by learning person-specific avatars from
examples and then show how they can be animated in new poses and motions. We
also show that the method can learn directly from raw scans with missing data,
greatly simplifying the process of creating realistic avatars. Code is
available for research purposes at
{\small\url{https://qianlim.github.io/SkiRT}}.
- Abstract(参考訳): SMPLのようなパラメトリックな3Dボディモデルは、最小限の服装しか表現せず、メッシュトポロジと解像度が固定されているため、衣服に拡張するのは難しい。
これらの制限に対処するために、最近の研究は暗黙の面や点雲を使って布を被った物体をモデル化している。
トポロジーによって制限されるわけではないが、このような方法はスカートやドレスなど、身体から著しく逸脱する衣服のモデル化に苦しむ。
これは、着用面を基準形状に再現することで、体に頼って正準化させるためである。
残念なことに、このプロセスは衣服が身体から遠く離れているときにはあまり定義されていない。
また、リニア・ブレンド・スキンを使用して身体を装い、肌の重みを下層の身体部分と結び付ける。
対照的に, 正準化を伴わない局所座標空間における衣服変形をモデル化する。
また、皮膚の重みを緩和して、複数の体部が表面に影響を与えるようにします。
具体的には,洋服の粗い表面形状を捉えられるポーズ非依存の「コアス形状」で正準化を置き換える粗い段階を点ベース法に拡張した。
次に、線形ブレンドスキンウェイトを推定し、粗い表現から依存変位を生じさせるネットワークを用いてこれを洗練する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
事例から個人固有のアバターを学習し,新たなポーズや動作でどのようにアニメーション化できるかを示すことで,このアプローチの有用性を実証する。
また,データの欠落を生のスキャンから直接学習し,リアルなアバターを作成するプロセスを大幅に単純化できることを示した。
コードは、研究目的で {\small\url{https://qianlim.github.io/SkiRT}}で利用可能である。
関連論文リスト
- CloSET: Modeling Clothed Humans on Continuous Surface with Explicit
Template Decomposition [36.39531876183322]
そこで我々は,明示的な衣服関連テンプレートを分解し,それらにポーズ依存のしわを加えることを提案する。
近年の最先端のポイントベース手法におけるシームアーティファクト問題に対処するために,体表面の点特徴を学習することを提案する。
我々のアプローチは、既存の2つのデータセットと、新しく導入されたデータセットで検証され、見当たらないポーズで服の変形結果が改善された。
論文 参考訳(メタデータ) (2023-04-06T15:50:05Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Significance of Skeleton-based Features in Virtual Try-On [3.7552180803118325]
textitVirtual Try-ON(VTON)というアイデアは、ユーザーが自宅の快適な場所で衣服を試すのに便利であることによって、電子小売の恩恵を受ける。
既存のVTONの手法のほとんどは、腕を折りたたんでポーズをとれば、一貫性のない結果をもたらす。
本稿では,合成ネットワークとマスク予測ネットワークという,学習に基づく2つのモジュールを提案する。
論文 参考訳(メタデータ) (2022-08-17T05:24:03Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。