論文の概要: X-Avatar: Expressive Human Avatars
- arxiv url: http://arxiv.org/abs/2303.04805v2
- Date: Thu, 9 Mar 2023 13:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 11:23:58.152705
- Title: X-Avatar: Expressive Human Avatars
- Title(参考訳): x-avatar (複数形 x-avatars)
- Authors: Kaiyue Shen, Chen Guo, Manuel Kaufmann, Juan Jose Zarate, Julien
Valentin, Jie Song, Otmar Hilliges
- Abstract要約: 我々は、デジタル人間の完全な表現性を捉え、テレプレゼンス、AR/VRなどのライフライクな体験をもたらす新しいアバターモデルであるX-アバターを提示する。
本手法は,体,手,表情,外観を包括的にモデル化し,フル3DスキャンまたはRGB-Dデータから学習することができる。
- 参考スコア(独自算出の注目度): 33.24502928725897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present X-Avatar, a novel avatar model that captures the full
expressiveness of digital humans to bring about life-like experiences in
telepresence, AR/VR and beyond. Our method models bodies, hands, facial
expressions and appearance in a holistic fashion and can be learned from either
full 3D scans or RGB-D data. To achieve this, we propose a part-aware learned
forward skinning module that can be driven by the parameter space of SMPL-X,
allowing for expressive animation of X-Avatars. To efficiently learn the neural
shape and deformation fields, we propose novel part-aware sampling and
initialization strategies. This leads to higher fidelity results, especially
for smaller body parts while maintaining efficient training despite increased
number of articulated bones. To capture the appearance of the avatar with
high-frequency details, we extend the geometry and deformation fields with a
texture network that is conditioned on pose, facial expression, geometry and
the normals of the deformed surface. We show experimentally that our method
outperforms strong baselines in both data domains both quantitatively and
qualitatively on the animation task. To facilitate future research on
expressive avatars we contribute a new dataset, called X-Humans, containing 233
sequences of high-quality textured scans from 20 participants, totalling 35,500
data frames.
- Abstract(参考訳): x-avatarは、デジタル人間の完全な表現性を捉え、テレプレゼンスやar/vrなどのライフライクな体験をもたらす新しいアバターモデルだ。
本手法は,体,手,表情,外観を包括的にモデル化し,フル3DスキャンまたはRGB-Dデータから学習することができる。
そこで本研究では,SMPL-Xのパラメータ空間によって駆動され,X-アバターの表現的アニメーションを可能にする,学習した前方スキンモジュールを提案する。
ニューラル形状と変形場を効率的に学習するために,新しい部分認識サンプリングと初期化戦略を提案する。
これにより、関節骨の数が増えるにもかかわらず、特に小さな身体部位では高い忠実性が得られ、効率的な訓練が維持される。
本研究では,アバターの外観を高周波で捉えるために,ポーズ,表情,形状,変形面の正常さを条件としたテクスチャネットワークを用いて形状と変形場を拡張した。
本手法は, アニメーション処理において, 定量的および定性的に両方のデータ領域において, 強いベースラインを上回っていることを実験的に示す。
表現力のあるアバターの今後の研究を容易にするために、20人の参加者から233の高品質なテクスチャスキャンを含む、X-Humansと呼ばれる新しいデータセットをコントリビュートする。
関連論文リスト
- Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - TriHuman : A Real-time and Controllable Tri-plane Representation for
Detailed Human Geometry and Appearance Synthesis [76.73338151115253]
TriHumanは、人間によって調整され、変形可能で、効率的な三面体表現である。
我々は、未変形の三面体テクスチャ空間に、地球規模のサンプルを厳格にワープする。
このような三面的特徴表現が骨格運動でどのように条件付けされ、動的外観や幾何学的変化を考慮に入れられるかを示す。
論文 参考訳(メタデータ) (2023-12-08T16:40:38Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - GAN-Avatar: Controllable Personalized GAN-based Human Head Avatar [48.21353924040671]
そこで本稿では,顔表情の正確な追跡を行うことなく,画像から人固有のアニマタブルなアバターを学習することを提案する。
3DMMの表情パラメータから生成モデルの潜在空間へのマッピングを学習する。
この方式により、3次元の外観再構成とアニメーション制御を分離し、画像合成における高忠実度を実現する。
論文 参考訳(メタデータ) (2023-11-22T19:13:00Z) - XAGen: 3D Expressive Human Avatars Generation [76.69560679209171]
XAGenは人体、顔、手を表現的に制御できる人間のアバターのための最初の3D生成モデルである。
身体, 顔, 手の合成を両立させる多部レンダリング手法を提案する。
実験によると、XAGenは現実主義、多様性、表現力のある制御能力の点で最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-11-22T18:30:42Z) - DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via
Diffusion Models [55.71306021041785]
高品質な3Dアバターを作成するためのテキスト・アンド・シェイプ・ガイドフレームワークであるDreamAvatarについて紹介する。
SMPLモデルを利用して、生成のための形状とポーズのガイダンスを提供する。
また、全体とズームインした3Dヘッドから計算した損失を共同で最適化し、一般的なマルチフェイス「Janus」問題を緩和する。
論文 参考訳(メタデータ) (2023-04-03T12:11:51Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。