論文の概要: CaPhy: Capturing Physical Properties for Animatable Human Avatars
- arxiv url: http://arxiv.org/abs/2308.05925v1
- Date: Fri, 11 Aug 2023 04:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:16:04.225260
- Title: CaPhy: Capturing Physical Properties for Animatable Human Avatars
- Title(参考訳): CaPhy:人間アバターの物理的特性の把握
- Authors: Zhaoqi Su and Liangxiao Hu and Siyou Lin and Hongwen Zhang and
Shengping Zhang and Justus Thies and Yebin Liu
- Abstract要約: CaPhyは、服のリアルなダイナミックな特性を持つ、アニマタブルな人間のアバターを再構築する新しい方法である。
本研究の目的は、実際の観測から衣服の幾何学的・物理的特性を捉えることである。
我々は,非教師なしトレーニングと物理に基づく損失と,スキャンデータを用いた3次元教師ありトレーニングを組み合わせて,衣服の動的モデルを構築した。
- 参考スコア(独自算出の注目度): 44.95805736197971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CaPhy, a novel method for reconstructing animatable human avatars
with realistic dynamic properties for clothing. Specifically, we aim for
capturing the geometric and physical properties of the clothing from real
observations. This allows us to apply novel poses to the human avatar with
physically correct deformations and wrinkles of the clothing. To this end, we
combine unsupervised training with physics-based losses and 3D-supervised
training using scanned data to reconstruct a dynamic model of clothing that is
physically realistic and conforms to the human scans. We also optimize the
physical parameters of the underlying physical model from the scans by
introducing gradient constraints of the physics-based losses. In contrast to
previous work on 3D avatar reconstruction, our method is able to generalize to
novel poses with realistic dynamic cloth deformations. Experiments on several
subjects demonstrate that our method can estimate the physical properties of
the garments, resulting in superior quantitative and qualitative results
compared with previous methods.
- Abstract(参考訳): 衣料品のリアルな動的特性を持つアニマタブルヒトアバターを復元する新しい手法であるCaPhyを提案する。
具体的には,実際の観察から衣服の幾何学的,物理的性質を捉えることを目的とした。
これにより、衣服の物理的に正しい変形やしわのある人間のアバターに新しいポーズを施すことができる。
この目的のために,非教師なしトレーニングと物理に基づく損失とスキャンデータを用いた3次元教師付きトレーニングを組み合わせることで,物理的に現実的で人間のスキャンに適合する衣服の動的モデルを再構築する。
また,基礎となる物理モデルの物理パラメータを,物理モデル損失の勾配制約を導入することにより最適化する。
従来の3次元アバター再構成法とは対照的に,本手法はリアルな動的布地変形を伴う新しいポーズを一般化することができる。
いくつかの被験者を対象に実験を行い, 衣服の物性を推定し, 従来の方法と比較して定量的, 質的評価に優れることを示した。
関連論文リスト
- PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - PhysAvatar: Learning the Physics of Dressed 3D Avatars from Visual Observations [62.14943588289551]
逆レンダリングと逆物理を組み合わせた新しいフレームワークであるPhysAvatarを導入し、人間の形や外観を自動的に推定する。
PhysAvatarは、トレーニングデータに見られない動きや照明条件の下で、ゆったりした服を着たアバターを再構築する。
論文 参考訳(メタデータ) (2024-04-05T21:44:57Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Deep Physics-aware Inference of Cloth Deformation for Monocular Human
Performance Capture [84.73946704272113]
物理をトレーニングプロセスに統合することで、学習した布の変形が改善し、衣服を別の幾何学的要素としてモデル化できることを示す。
提案手法は現在の最先端手法よりも大幅に改善され,人間の衣服の変形面全体に対する現実的なモノクロキャプチャに向けた明確なステップとなる。
論文 参考訳(メタデータ) (2020-11-25T16:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。