論文の概要: Semantic-Preserved Point-based Human Avatar
- arxiv url: http://arxiv.org/abs/2311.11614v1
- Date: Mon, 20 Nov 2023 08:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:30:31.709696
- Title: Semantic-Preserved Point-based Human Avatar
- Title(参考訳): 意味保存型ポイントベースヒューマンアバター
- Authors: Lixiang Lin, Jianke Zhu
- Abstract要約: デジタル人間の全体像を具現化した最初のポイントベース人間アバターモデルを提案する。
本稿では,SMPL-Xモデルからポイントへ意味情報を伝達する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 15.017308063001366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To enable realistic experience in AR/VR and digital entertainment, we present
the first point-based human avatar model that embodies the entirety expressive
range of digital humans. We employ two MLPs to model pose-dependent deformation
and linear skinning (LBS) weights. The representation of appearance relies on a
decoder and the features that attached to each point. In contrast to
alternative implicit approaches, the oriented points representation not only
provides a more intuitive way to model human avatar animation but also
significantly reduces both training and inference time. Moreover, we propose a
novel method to transfer semantic information from the SMPL-X model to the
points, which enables to better understand human body movements. By leveraging
the semantic information of points, we can facilitate virtual try-on and human
avatar composition through exchanging the points of same category across
different subjects. Experimental results demonstrate the efficacy of our
presented method.
- Abstract(参考訳): ar/vrとデジタルエンタテインメントの現実的な体験を実現するために、デジタル人間の表現範囲全体を具現化する最初のポイントベースの人間アバターモデルを提案する。
ポーズ依存変形と線形スキン(LBS)重みをモデル化するために2つのMLPを用いる。
外観の表現はデコーダと各点に付随する特徴に依存している。
代替的な暗黙的なアプローチとは対照的に、指向点表現は人間のアバターアニメーションをモデル化するより直感的な方法を提供するだけでなく、トレーニングと推論の時間を大幅に削減する。
さらに,smpl-xモデルから点へ意味情報を伝達する新しい手法を提案する。
ポイントのセマンティック情報を活用することで、異なる被験者間で同じカテゴリのポイントを交換することで、仮想試行錯誤と人間のアバター構成を容易にすることができる。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- AvatarGO: Zero-shot 4D Human-Object Interaction Generation and Animation [60.5897687447003]
AvatarGOはテキスト入力からリアルな4D HOIシーンを生成するために設計された新しいフレームワークである。
我々のフレームワークは、コヒーレントな構成運動を生成するだけでなく、問題に対処する上でより堅牢性を示す。
4Dアバターをオブジェクトインタラクションで合成する最初の試みとして、AvatarGOが人間中心の4Dコンテンツを作るための新しい扉を開くことを願っている。
論文 参考訳(メタデータ) (2024-10-09T17:58:56Z) - From Audio to Photoreal Embodiment: Synthesizing Humans in Conversations [107.88375243135579]
音声を聴くと、顔、体、手を含む個人に対して、ジェスチャー動作の可能性を複数出力する。
ジェスチャーにおいて重要なニュアンスを表現できる高光写実性アバターを用いて生成した動きを可視化する。
実験により,本モデルが適切な多様なジェスチャーを生成することを示し,拡散法とVQ法の両方に優れることがわかった。
論文 参考訳(メタデータ) (2024-01-03T18:55:16Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - X-Avatar: Expressive Human Avatars [33.24502928725897]
我々は、デジタル人間の完全な表現性を捉え、テレプレゼンス、AR/VRなどのライフライクな体験をもたらす新しいアバターモデルであるX-アバターを提示する。
本手法は,体,手,表情,外観を包括的にモデル化し,フル3DスキャンまたはRGB-Dデータから学習することができる。
論文 参考訳(メタデータ) (2023-03-08T18:59:39Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。