論文の概要: LEAP: Learning Articulated Occupancy of People
- arxiv url: http://arxiv.org/abs/2104.06849v1
- Date: Wed, 14 Apr 2021 13:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:36:08.474882
- Title: LEAP: Learning Articulated Occupancy of People
- Title(参考訳): LEAP: 人々のArticulated Occupancyを学ぶ
- Authors: Marko Mihajlovic, Yan Zhang, Michael J. Black, Siyu Tang
- Abstract要約: 我々は、人体の新たな神経占有表現であるleap(learning articulated occupancy of people)を紹介する。
骨変換の集合と空間内の問合せ点が与えられると、leapはまずクエリポイントを学習線形ブレンドスキン(lbs)関数を介して正準空間にマッピングする。
LEAPは、正則空間における正確な同一性およびポーズ依存変形をモデル化する占有ネットワークを介して、占有値を効率的にクエリする。
- 参考スコア(独自算出の注目度): 56.35797895609303
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Substantial progress has been made on modeling rigid 3D objects using deep
implicit representations. Yet, extending these methods to learn neural models
of human shape is still in its infancy. Human bodies are complex and the key
challenge is to learn a representation that generalizes such that it can
express body shape deformations for unseen subjects in unseen,
highly-articulated, poses. To address this challenge, we introduce LEAP
(LEarning Articulated occupancy of People), a novel neural occupancy
representation of the human body. Given a set of bone transformations (i.e.
joint locations and rotations) and a query point in space, LEAP first maps the
query point to a canonical space via learned linear blend skinning (LBS)
functions and then efficiently queries the occupancy value via an occupancy
network that models accurate identity- and pose-dependent deformations in the
canonical space. Experiments show that our canonicalized occupancy estimation
with the learned LBS functions greatly improves the generalization capability
of the learned occupancy representation across various human shapes and poses,
outperforming existing solutions in all settings.
- Abstract(参考訳): 深い暗黙表現を用いた剛性のある3dオブジェクトのモデリングにおいて、かなりの進歩があった。
しかし、人間の形状のニューラルモデルを学ぶためにこれらの手法を拡張することは、まだ初期段階にある。
人間の身体は複雑で、目に見えない、高度に表現されたポーズで身体の形を表現できるように一般化する表現を学ぶことが重要な課題である。
この課題に対処するため,我々は,人体の新たな神経占有表現であるleap(learning articulated occupancy of people)を導入する。
骨変換のセット(例:骨変換)が与えられると
ジョイントロケーションとローテーション)と空間内のクエリポイントは、まず、学習されたリニアブレンドスキニング(lbs)機能を介してクエリポイントを正準空間にマッピングし、その後、正準空間における正確なアイデンティティとポーズ依存の変形をモデル化する占有ネットワークを介して、効率的に占有値にクエリする。
実験の結果,学習したLBS関数による正規化占有率推定は,学習した占有率表現の様々な形状やポーズの一般化能力を大幅に向上し,既存のソリューションをあらゆる場面で上回ることがわかった。
関連論文リスト
- Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。