論文の概要: PhysXNet: A Customizable Approach for LearningCloth Dynamics on Dressed
People
- arxiv url: http://arxiv.org/abs/2111.07195v1
- Date: Sat, 13 Nov 2021 21:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 11:42:48.313776
- Title: PhysXNet: A Customizable Approach for LearningCloth Dynamics on Dressed
People
- Title(参考訳): physxnet: 服装者の学習クロスダイナミクスのためのカスタマイズ可能なアプローチ
- Authors: Jordi Sanchez-Riera, Albert Pumarola and Francesc Moreno-Noguer
- Abstract要約: これらの衣服を装着した人間の3次元骨格運動列を与えられた変形可能な衣服のダイナミクスを予測するための学習ベースのアプローチであるPhysXNetを紹介した。
PhysXNetは、密度の高い布メッシュの幾何学をミリ秒単位で推定することができる。
PhysXNetは物理エンジンで計算したものと非常に近い布の変形を提供する。
- 参考スコア(独自算出の注目度): 38.23532960427364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce PhysXNet, a learning-based approach to predict the dynamics of
deformable clothes given 3D skeleton motion sequences of humans wearing these
clothes. The proposed model is adaptable to a large variety of garments and
changing topologies, without need of being retrained. Such simulations are
typically carried out by physics engines that require manual human expertise
and are subjectto computationally intensive computations. PhysXNet, by
contrast, is a fully differentiable deep network that at inference is able to
estimate the geometry of dense cloth meshes in a matter of milliseconds, and
thus, can be readily deployed as a layer of a larger deep learning
architecture. This efficiency is achieved thanks to the specific
parameterization of the clothes we consider, based on 3D UV maps encoding
spatial garment displacements. The problem is then formulated as a mapping
between the human kinematics space (represented also by 3D UV maps of the
undressed body mesh) into the clothes displacement UV maps, which we learn
using a conditional GAN with a discriminator that enforces feasible
deformations. We train simultaneously our model for three garment templates,
tops, bottoms and dresses for which we simulate deformations under 50 different
human actions. Nevertheless, the UV map representation we consider allows
encapsulating many different cloth topologies, and at test we can simulate
garments even if we did not specifically train for them. A thorough evaluation
demonstrates that PhysXNet delivers cloth deformations very close to those
computed with the physical engine, opening the door to be effectively
integrated within deeplearning pipelines.
- Abstract(参考訳): physxnetは,ヒトの3dスケルトン運動シーケンスから変形可能な衣服のダイナミックスを予測するための学習ベースの手法である。
提案手法は, 様々な衣服に適応し, トポロジを変えることができるが, 再訓練は不要である。
このようなシミュレーションは通常、手動の人間の専門知識を必要とする物理エンジンによって行われ、計算集約的な計算の対象となる。
対照的にphysxnetは、完全に微分可能なディープネットワークであり、推論によってミリ秒単位で密度の高い布のメッシュの形状を推定できるため、より大きなディープラーニングアーキテクチャのレイヤとして容易にデプロイすることができる。
この効率は、空間的衣服変位をエンコードした3次元uvマップに基づいて、我々が検討する衣服の特定のパラメータ化によって達成される。
この問題は、人間の体操空間(無装身メッシュの3次元UVマップで表される)と衣服変位UVマップとのマッピングとして定式化され、実測可能な変形を強制する判別器を用いた条件付きGANを用いて学習する。
我々は、50種類の人間の行動の下で変形をシミュレートする3つの衣服テンプレート、トップ、ボトム、ドレスを同時にトレーニングする。
それにもかかわらず、我々が検討するuvマップ表現は、多くの異なる布のトポロジをカプセル化することができ、テストでは、特別なトレーニングを行わなくても、衣料品をシミュレートすることができる。
PhysXNetは物理エンジンで計算されたものに非常に近い布の変形をもたらし、ディープラーニングパイプラインに効率的に組み込むための扉を開く。
関連論文リスト
- PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - PhysAvatar: Learning the Physics of Dressed 3D Avatars from Visual Observations [62.14943588289551]
逆レンダリングと逆物理を組み合わせた新しいフレームワークであるPhysAvatarを導入し、人間の形や外観を自動的に推定する。
PhysAvatarは、トレーニングデータに見られない動きや照明条件の下で、ゆったりした服を着たアバターを再構築する。
論文 参考訳(メタデータ) (2024-04-05T21:44:57Z) - A Physics-embedded Deep Learning Framework for Cloth Simulation [6.8806198396336935]
本稿では,布地シミュレーションの物理特性を直接エンコードする物理組込み学習フレームワークを提案する。
このフレームワークは、従来のシミュレータやサブニューラルネットワークを通じて、外部の力や衝突処理と統合することもできる。
論文 参考訳(メタデータ) (2024-03-19T15:21:00Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - Dynamic Visual Reasoning by Learning Differentiable Physics Models from
Video and Language [92.7638697243969]
視覚概念を協調的に学習し,映像や言語から物体の物理モデルを推定する統合フレームワークを提案する。
これは視覚認識モジュール、概念学習モジュール、微分可能な物理エンジンの3つのコンポーネントをシームレスに統合することで実現される。
論文 参考訳(メタデータ) (2021-10-28T17:59:13Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。