論文の概要: PBNS: Physically Based Neural Simulator for Unsupervised Garment Pose
Space Deformation
- arxiv url: http://arxiv.org/abs/2012.11310v2
- Date: Fri, 29 Jan 2021 10:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:21:50.218012
- Title: PBNS: Physically Based Neural Simulator for Unsupervised Garment Pose
Space Deformation
- Title(参考訳): PBNS:非制御ガーメントポース空間変形のための物理ベースニューラルシミュレータ
- Authors: Hugo Bertiche, Meysam Madadi and Sergio Escalera
- Abstract要約: Pose Space Deformation (PSD) を用いた線形ブレンドスキニング (LBS) は、物理ベースシミュレーション (PBS) に代わる軽量な代替手段です。
暗黙的な PBS として策定された深層学習を用いて、現実の布地Pose Space Deformations を無防備に学習することを提案する。
その結果, アニメーション衣服と有意義なポーズ依存性の折り畳み, しわには, 布の整合性が認められた。
- 参考スコア(独自算出の注目度): 40.679520739784195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a methodology to automatically obtain Pose Space Deformation (PSD)
basis for rigged garments through deep learning. Classical approaches rely on
Physically Based Simulations (PBS) to animate clothes. These are general
solutions that, given a sufficiently fine-grained discretization of space and
time, can achieve highly realistic results. However, they are computationally
expensive and any scene modification prompts the need of re-simulation. Linear
Blend Skinning (LBS) with PSD offers a lightweight alternative to PBS, though,
it needs huge volumes of data to learn proper PSD. We propose using deep
learning, formulated as an implicit PBS, to unsupervisedly learn realistic
cloth Pose Space Deformations in a constrained scenario: dressed humans.
Furthermore, we show it is possible to train these models in an amount of time
comparable to a PBS of a few sequences. To the best of our knowledge, we are
the first to propose a neural simulator for cloth. While deep-based approaches
in the domain are becoming a trend, these are data-hungry models. Moreover,
authors often propose complex formulations to better learn wrinkles from PBS
data. Dependency from data makes these solutions scalability lower, while their
formulation hinders its applicability and compatibility. By proposing an
unsupervised methodology to learn PSD for LBS models (3D animation standard),
we overcome both of these drawbacks. Results obtained show cloth-consistency in
the animated garments and meaningful pose-dependant folds and wrinkles.
- Abstract(参考訳): 本稿では,深層学習による着衣のポーズ空間変形(psd)を自動的に取得する手法を提案する。
古典的なアプローチは、衣服をアニメーションするために物理ベースのシミュレーション(PBS)に依存している。
これらは空間と時間の十分な微細な離散化を与えられた一般的な解であり、非常に現実的な結果が得られる。
しかし、計算コストは高く、シーンの変更によって再シミュレーションが必要となる。
PSDを用いた線形ブレンドスキニング(LBS)はPBSに代わる軽量な代替手段を提供するが、適切なPSDを学ぶには大量のデータが必要である。
我々は,暗黙のPBSとして定式化された深層学習を用いて,制約のあるシナリオで現実的なPose Spaceの変形を教師なしで学習することを提案する。
さらに,数列のPBSに匹敵する時間で,これらのモデルを訓練することが可能であることを示す。
我々の知る限りでは、布のための神経シミュレータを最初に提案する。
ドメインにおけるディープベースアプローチはトレンドになりつつあるが、これらはデータハングリーモデルである。
さらに、PBSデータからしわをよりよく学習するための複雑な定式化を提案することも多い。
データからの依存は、これらのソリューションのスケーラビリティを低下させ、その定式化は適用性と互換性を妨げる。
LBSモデルのPSDを学習するための教師なし方法論(3Dアニメーション標準)を提案することにより、これらの欠点を克服する。
その結果, アニメーション衣服と有意義なポーズ依存性の折り畳み, しわには布の一貫性が認められた。
関連論文リスト
- Animatable Virtual Humans: Learning pose-dependent human representations
in UV space for interactive performance synthesis [11.604386285817302]
高精度な動的メッシュシーケンスから、ポーズ依存の外観と幾何学を学習する。
SMPLモデルの一貫したUV空間において、ポーズ依存の外観と幾何学の両方を符号化する。
論文 参考訳(メタデータ) (2023-10-05T15:49:44Z) - PoseExaminer: Automated Testing of Out-of-Distribution Robustness in
Human Pose and Shape Estimation [15.432266117706018]
我々は人間のポーズのイメージの多様体を探索するために、きめ細かい方法で制御できるシミュレータを開発した。
本稿では,HPSアルゴリズムを自動診断するPoseExaminerという学習ベースのテスト手法を提案する。
我々のPoseExaminerは、現実のシナリオに関係のある現在の最先端モデルにおいて、様々な制限を発見できることを示す。
論文 参考訳(メタデータ) (2023-03-13T17:58:54Z) - Invertible Neural Skinning [44.09069017248669]
生の3Dスキャンから着替え可能な人間のモデルを構築することは、難しい問題だ。
Invertible Neural Skinning (INS)を導入し,これらの問題点に対処する。
我々は,布を被った人間に対して,最先端の再現技術より優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-18T04:12:47Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - CharacterGAN: Few-Shot Keypoint Character Animation and Reposing [64.19520387536741]
本稿では,与えられた文字の少数のサンプルに対してのみトレーニング可能な生成モデルである characterGAN を紹介する。
我々のモデルはキーポイント位置に基づいて新しいポーズを生成し、インタラクティブなフィードバックを提供しながらリアルタイムで修正することができる。
提案手法は,近年のベースラインよりも優れており,多様なキャラクタに対してリアルなアニメーションを生成する。
論文 参考訳(メタデータ) (2021-02-05T12:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。