論文の概要: Unsupervised Shape and Pose Disentanglement for 3D Meshes
- arxiv url: http://arxiv.org/abs/2007.11341v1
- Date: Wed, 22 Jul 2020 11:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:57:50.162986
- Title: Unsupervised Shape and Pose Disentanglement for 3D Meshes
- Title(参考訳): 3次元メッシュの教師なし形状とポーズ乱れ
- Authors: Keyang Zhou, Bharat Lal Bhatnagar, Gerard Pons-Moll
- Abstract要約: 本研究では,非教師付き環境において,非教師付き形状とポーズ表現を学習するための,シンプルで効果的なアプローチを提案する。
自己整合性と相互整合性の制約を組み合わせて、登録メッシュからポーズと空間の形状を学ぶ。
ポーズ転送や形状検索などのタスクを通じて,学習した表現の有用性を示す。
- 参考スコア(独自算出の注目度): 49.431680543840706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parametric models of humans, faces, hands and animals have been widely used
for a range of tasks such as image-based reconstruction, shape correspondence
estimation, and animation. Their key strength is the ability to factor surface
variations into shape and pose dependent components. Learning such models
requires lots of expert knowledge and hand-defined object-specific constraints,
making the learning approach unscalable to novel objects. In this paper, we
present a simple yet effective approach to learn disentangled shape and pose
representations in an unsupervised setting. We use a combination of
self-consistency and cross-consistency constraints to learn pose and shape
space from registered meshes. We additionally incorporate as-rigid-as-possible
deformation(ARAP) into the training loop to avoid degenerate solutions. We
demonstrate the usefulness of learned representations through a number of tasks
including pose transfer and shape retrieval. The experiments on datasets of 3D
humans, faces, hands and animals demonstrate the generality of our approach.
Code is made available at
https://virtualhumans.mpi-inf.mpg.de/unsup_shape_pose/.
- Abstract(参考訳): 人間、顔、手、動物のパラメトリックモデルは、画像ベースの再構成、形状対応推定、アニメーションといった様々なタスクに広く利用されている。
その鍵となる強みは、表面の変化を形に分解し、依存する成分を配置する能力である。
このようなモデルを学ぶには、多くの専門家の知識と手定義のオブジェクト固有の制約が必要です。
本稿では,教師なし設定で不連続な形状やポーズ表現を学ぶための,単純かつ効果的な手法を提案する。
自己整合性と相互整合性の制約を組み合わせて、登録メッシュからポーズと空間の形状を学ぶ。
さらに, 変形性変形(ARAP)をトレーニングループに組み込んで, 退化解の回避を図る。
ポーズ転送や形状検索などのタスクを通じて,学習した表現の有用性を示す。
3d人間、顔、手、動物のデータセットに関する実験は、我々のアプローチの汎用性を示しています。
コードはhttps://virtualhumans.mpi-inf.mpg.de/unsup_shape_pose/で入手できる。
関連論文リスト
- LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z) - Chained Representation Cycling: Learning to Estimate 3D Human Pose and
Shape by Cycling Between Representations [73.11883464562895]
本稿では,教師なし,あるいは教師なしの学習を容易にする新しいアーキテクチャを提案する。
本研究では,非ペア画像と無注釈画像から3次元人物のポーズと形状を学習することにより,その手法を実証する。
人間をモデル化するための結果を示す一方で、私たちの定式化は一般的であり、他の視覚問題にも適用できる。
論文 参考訳(メタデータ) (2020-01-06T14:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。