論文の概要: High-fidelity Face Tracking for AR/VR via Deep Lighting Adaptation
- arxiv url: http://arxiv.org/abs/2103.15876v1
- Date: Mon, 29 Mar 2021 18:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:42:49.748619
- Title: High-fidelity Face Tracking for AR/VR via Deep Lighting Adaptation
- Title(参考訳): 深部照明適応によるar/vrの高精度顔追跡
- Authors: Lele Chen, Chen Cao, Fernando De la Torre, Jason Saragih, Chenliang
Xu, Yaser Sheikh
- Abstract要約: 3Dビデオアバターは、圧縮、プライバシー、エンターテイメント、AR/VRにおける存在感を提供することで、仮想コミュニケーションを強化することができる。
既存の人物固有の3dモデルは照明に頑健ではないため、その結果は通常微妙な顔の振る舞いを見逃し、アバターにアーティファクトを引き起こす。
本論文では,高品質の3D顔追跡アルゴリズムを組み合わせたディープラーニング照明モデルを用いて,通常の映像から3Dフォトリアリズムアバターへの微妙かつ堅牢な顔の動き伝達手法を提案する。
- 参考スコア(独自算出の注目度): 117.32310997522394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D video avatars can empower virtual communications by providing compression,
privacy, entertainment, and a sense of presence in AR/VR. Best 3D
photo-realistic AR/VR avatars driven by video, that can minimize uncanny
effects, rely on person-specific models. However, existing person-specific
photo-realistic 3D models are not robust to lighting, hence their results
typically miss subtle facial behaviors and cause artifacts in the avatar. This
is a major drawback for the scalability of these models in communication
systems (e.g., Messenger, Skype, FaceTime) and AR/VR. This paper addresses
previous limitations by learning a deep learning lighting model, that in
combination with a high-quality 3D face tracking algorithm, provides a method
for subtle and robust facial motion transfer from a regular video to a 3D
photo-realistic avatar. Extensive experimental validation and comparisons to
other state-of-the-art methods demonstrate the effectiveness of the proposed
framework in real-world scenarios with variability in pose, expression, and
illumination. Please visit https://www.youtube.com/watch?v=dtz1LgZR8cc for more
results. Our project page can be found at
https://www.cs.rochester.edu/u/lchen63.
- Abstract(参考訳): 3Dビデオアバターは、圧縮、プライバシー、エンターテイメント、AR/VRにおける存在感を提供することで、仮想コミュニケーションを強化することができる。
3DフォトリアリスティックなAR/VRアバターは、人固有のモデルに頼って、不気味な効果を最小限に抑えることができる。
しかし、既存の人物固有の写真リアリスティックな3Dモデルは照明に強くないため、その結果は微妙な顔の振る舞いを見逃し、アバターに人工物をもたらすのが普通である。
これは、コミュニケーションシステム(例えば、Messenger、Skype、FaceTime)やAR/VRにおけるこれらのモデルのスケーラビリティの大きな欠点である。
本稿では,高品質な3次元顔追跡アルゴリズムと組み合わせて,通常の映像から3次元写真リアリスティックアバターへの微妙で頑健な顔の動き伝達を行う深層学習照明モデルについて述べる。
提案手法は, 実世界のシナリオにおいて, ポーズ, 表現, 照明の変動を伴う場合において, 提案手法の有効性を示す。
詳細はhttps://www.youtube.com/watch?v=dtz1lgzr8ccを参照。
私たちのプロジェクトページはhttps://www.cs.rochester.edu/u/lchen63.orgにある。
関連論文リスト
- UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures [80.047065473698]
幾何学の忠実度を高めたUltrAvatarと呼ばれる新しい3次元アバター生成手法を提案し,光を必要とせずに物理ベースレンダリング(PBR)テクスチャの質を向上する。
提案手法の有効性とロバスト性を実証し,実験において最先端の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-01-20T01:55:17Z) - Reality's Canvas, Language's Brush: Crafting 3D Avatars from Monocular Video [14.140380599168628]
ReCaLaBは、単一のRGBビデオから高忠実な3Dアバターを学習するパイプラインだ。
ポーズ条件のNeRFは、人間の対象を標準的T目的で容積的に表現するように最適化される。
これにより、画像条件付き拡散モデルにより、3Dアバターの外観とポーズをアニメーション化し、これまで見えなかった人間の動きを伴う映像シーケンスを作成することができる。
論文 参考訳(メタデータ) (2023-12-08T01:53:06Z) - GAN-Avatar: Controllable Personalized GAN-based Human Head Avatar [48.21353924040671]
そこで本稿では,顔表情の正確な追跡を行うことなく,画像から人固有のアニマタブルなアバターを学習することを提案する。
3DMMの表情パラメータから生成モデルの潜在空間へのマッピングを学習する。
この方式により、3次元の外観再構成とアニメーション制御を分離し、画像合成における高忠実度を実現する。
論文 参考訳(メタデータ) (2023-11-22T19:13:00Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z) - Pixel Codec Avatars [99.36561532588831]
Pixel Codec Avatars(PiCA)は、3D人間の顔の深い生成モデルです。
oculus quest 2のモバイルvrヘッドセットでは、同じシーンで5つのアバターがリアルタイムでレンダリングされる。
論文 参考訳(メタデータ) (2021-04-09T23:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。