論文の概要: imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose
- arxiv url: http://arxiv.org/abs/2108.10842v1
- Date: Tue, 24 Aug 2021 17:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:25:08.865329
- Title: imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose
- Title(参考訳): imGHUM: 人間の3次元形状とArticulated Poseの生成モデル
- Authors: Thiemo Alldieck, Hongyi Xu, Cristian Sminchisescu
- Abstract要約: 人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
- 参考スコア(独自算出の注目度): 42.4185273307021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present imGHUM, the first holistic generative model of 3D human shape and
articulated pose, represented as a signed distance function. In contrast to
prior work, we model the full human body implicitly as a function
zero-level-set and without the use of an explicit template mesh. We propose a
novel network architecture and a learning paradigm, which make it possible to
learn a detailed implicit generative model of human pose, shape, and semantics,
on par with state-of-the-art mesh-based models. Our model features desired
detail for human models, such as articulated pose including hand motion and
facial expressions, a broad spectrum of shape variations, and can be queried at
arbitrary resolutions and spatial locations. Additionally, our model has
attached spatial semantics making it straightforward to establish
correspondences between different shape instances, thus enabling applications
that are difficult to tackle using classical implicit representations. In
extensive experiments, we demonstrate the model accuracy and its applicability
to current research problems.
- Abstract(参考訳): 本稿では,3次元形状と構音ポーズの包括的生成モデルであるimghumについて,符号付き距離関数として表現する。
従来の作業とは対照的に、全人体をゼロレベルセットの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
本稿では,人間のポーズ,形状,意味に関する詳細な暗黙的生成モデルを,最先端のメッシュモデルと同等に学習することのできる,新しいネットワークアーキテクチャと学習パラダイムを提案する。
本モデルでは,手の動きや表情を含む調音ポーズ,形状変化の幅広いスペクトル,任意の解像度や空間的位置でクエリできるなど,人間のモデルに望ましい詳細を特徴付ける。
さらに,本モデルでは,異なる形状のインスタンス間の対応性を簡単に確立し,従来の暗黙的表現による対処が困難なアプリケーションを実現するために,空間意味論を付加した。
広範な実験において,モデル精度と現在の研究課題への適用性を示す。
関連論文リスト
- Champ: Controllable and Consistent Human Image Animation with 3D Parametric Guidance [25.346255905155424]
本稿では,潜伏拡散フレームワーク内での3次元人間のパラメトリックモデルを活用することで,人間の画像アニメーションの方法論を提案する。
人間の3次元パラメトリックモデルを動作誘導として表現することにより、基準画像と音源映像の動きの間に人体のパラメトリック形状アライメントを行うことができる。
提案手法は,提案した組込みデータセットに対して,より優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-21T18:52:58Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Identity-Disentangled Neural Deformation Model for Dynamic Meshes [8.826835863410109]
我々は、暗黙の神経機能を用いたポーズ依存的な変形から、同一性によって引き起こされる形状変化を歪曲する神経変形モデルを学ぶ。
本稿では,大域的ポーズアライメントとニューラル変形モデルを統合する2つの手法を提案する。
また, 固定テンプレートの制約を伴わずにヤシの印刷や腱などの表面の細部を再構築する際に, 従来の骨格駆動モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-09-30T17:43:06Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。