論文の概要: Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing
- arxiv url: http://arxiv.org/abs/2108.08807v2
- Date: Fri, 20 Aug 2021 11:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 10:33:56.607292
- Title: Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing
- Title(参考訳): Neural-GIF: 衣服の人々をアニメーションするためのニューラルネットワーク一般化インシシシット機能
- Authors: Garvita Tiwari, Nikolaos Sarafianos, Tony Tung, Gerard Pons-Moll
- Abstract要約: 私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
- 参考スコア(独自算出の注目度): 49.32522765356914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Neural Generalized Implicit Functions(Neural-GIF), to animate
people in clothing as a function of the body pose. Given a sequence of scans of
a subject in various poses, we learn to animate the character for new poses.
Existing methods have relied on template-based representations of the human
body (or clothing). However such models usually have fixed and limited
resolutions, require difficult data pre-processing steps and cannot be used
with complex clothing. We draw inspiration from template-based methods, which
factorize motion into articulation and non-rigid deformation, but generalize
this concept for implicit shape learning to obtain a more flexible model. We
learn to map every point in the space to a canonical space, where a learned
deformation field is applied to model non-rigid effects, before evaluating the
signed distance field. Our formulation allows the learning of complex and
non-rigid deformations of clothing and soft tissue, without computing a
template registration as it is common with current approaches. Neural-GIF can
be trained on raw 3D scans and reconstructs detailed complex surface geometry
and deformations. Moreover, the model can generalize to new poses. We evaluate
our method on a variety of characters from different public datasets in diverse
clothing styles and show significant improvements over baseline methods,
quantitatively and qualitatively. We also extend our model to multiple shape
setting. To stimulate further research, we will make the model, code and data
publicly available at: https://virtualhumans.mpi-inf.mpg.de/neuralgif/
- Abstract(参考訳): 本稿では,身体のポーズ機能として衣服の人々をアニメーション化するために,ニューラル一般インシシット関数(Neural-GIF)を提案する。
様々なポーズの被験者の連続したスキャンを与えられた場合、我々は新しいポーズのキャラクターをアニメーション化することを学ぶ。
既存の方法は、人体(または衣服)のテンプレートベースの表現に依存している。
しかし、そのようなモデルは通常、固定解像度と限定解像度を持ち、難しいデータ前処理ステップを必要とし、複雑な衣服では使用できない。
動きを調音および非剛性変形に分解するテンプレートベースの手法から着想を得たが、この概念を暗黙的な形状学習に一般化し、より柔軟なモデルを得る。
空間内のすべての点を正準空間に写像し、そこでは符号付き距離場を評価する前に、学習された変形場をモデル非剛性効果に適用する。
我々の定式化は、現在のアプローチと共通するテンプレート登録を計算せずに、衣服や軟組織の複雑な非剛性変形の学習を可能にする。
neural-gifは生の3dスキャンで訓練でき、複雑な表面形状や変形を再現できる。
さらに、モデルは新しいポーズに一般化することができる。
本手法は,多様な衣服スタイルの各種公開データセットから様々な文字を抽出し,定量的・定性的にベースライン法よりも有意な改善が見られた。
また、モデルを複数の形状設定に拡張します。
さらなる研究を刺激するため、モデル、コード、データはhttps://virtualhumans.mpi-inf.mpg.de/neuralgif/で公開します。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - CloSET: Modeling Clothed Humans on Continuous Surface with Explicit
Template Decomposition [36.39531876183322]
そこで我々は,明示的な衣服関連テンプレートを分解し,それらにポーズ依存のしわを加えることを提案する。
近年の最先端のポイントベース手法におけるシームアーティファクト問題に対処するために,体表面の点特徴を学習することを提案する。
我々のアプローチは、既存の2つのデータセットと、新しく導入されたデータセットで検証され、見当たらないポーズで服の変形結果が改善された。
論文 参考訳(メタデータ) (2023-04-06T15:50:05Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - DANBO: Disentangled Articulated Neural Body Representations via Graph
Neural Networks [12.132886846993108]
高解像度モデルは、写真リアリスティックなアバターを可能にするが、エンドユーザーには利用できないスタジオ設定を必要とするコストがかかる。
私たちのゴールは、高価なスタジオのセットアップや表面追跡に頼ることなく、生画像から直接アバターを作ることです。
本稿では,2つの帰納バイアスを誘導する3段階の手法を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:56:46Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。