論文の概要: Structure-aware Editable Morphable Model for 3D Facial Detail Animation
and Manipulation
- arxiv url: http://arxiv.org/abs/2207.09019v1
- Date: Tue, 19 Jul 2022 01:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:18:40.824343
- Title: Structure-aware Editable Morphable Model for 3D Facial Detail Animation
and Manipulation
- Title(参考訳): 3次元顔ディテールアニメーションとマニピュレーションのための構造認識編集可能なモーファブルモデル
- Authors: Jingwang Ling, Zhibo Wang, Ming Lu, Quan Wang, Chen Qian, Feng Xu
- Abstract要約: 本稿では,SEMM(Structure-Aware Editable Morphable Model)を学習することで,顔の細部を表現できるモデルを強化する。
SEMMでは,輪郭線距離場に基づく細部構造表現を導入し,より優れた対応性を確立するために,細部変位を共同でモデル化した。
2つの変換モジュールは、表現のブレンドシェープ重みと年齢値を潜在空間の変化に変換し、効果的な意味的詳細編集を可能にする。
- 参考スコア(独自算出の注目度): 34.93803921616492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Morphable models are essential for the statistical modeling of 3D faces.
Previous works on morphable models mostly focus on large-scale facial geometry
but ignore facial details. This paper augments morphable models in representing
facial details by learning a Structure-aware Editable Morphable Model (SEMM).
SEMM introduces a detail structure representation based on the distance field
of wrinkle lines, jointly modeled with detail displacements to establish better
correspondences and enable intuitive manipulation of wrinkle structure.
Besides, SEMM introduces two transformation modules to translate expression
blendshape weights and age values into changes in latent space, allowing
effective semantic detail editing while maintaining identity. Extensive
experiments demonstrate that the proposed model compactly represents facial
details, outperforms previous methods in expression animation qualitatively and
quantitatively, and achieves effective age editing and wrinkle line editing of
facial details. Code and model are available at
https://github.com/gerwang/facial-detail-manipulation.
- Abstract(参考訳): モーファブルモデルは3d顔の統計的モデリングに必須である。
モーフィナブルモデルに関する以前の研究は、主に大規模な顔の幾何学に焦点を合わせているが、顔の詳細は無視している。
本稿では,SEMM(Structure-aware Editable Morphable Model)を学習することで,顔の細部を表現できるモデルを強化する。
SEMMは、輪郭線距離場に基づく細部構造表現を導入し、より優れた対応を確立し、輪郭構造の直感的な操作を可能にする。
さらに、SEMMは2つの変換モジュールを導入し、表現のブレンドシェープ重みと年齢値を潜在空間の変化に変換する。
広範な実験により,提案モデルが顔の細部をコンパクトに表現し,表情アニメーションの質的,定量的に従来の手法を上回り,効果的な年齢編集と顔の輪郭線編集を実現することを実証した。
コードとモデルはhttps://github.com/gerwang/face-detail-manipulationで入手できる。
関連論文リスト
- ImFace++: A Sophisticated Nonlinear 3D Morphable Face Model with Implicit Neural Representations [25.016000421755162]
本稿では,暗黙のニューラル表現を持つ高度で連続的な空間を学習するために,ImFace++という新しい3次元顔モデルを提案する。
ImFace++は、まず2つの明示的に歪んだ変形フィールドを構築し、アイデンティティと式に関連する複雑な形状をモデル化する。
さらにテンプレート空間内の精細化変位場が組み込まれ、個々の顔の詳細をきめ細かな学習が可能となる。
論文 参考訳(メタデータ) (2023-12-07T03:53:53Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - HiFace: High-Fidelity 3D Face Reconstruction by Learning Static and
Dynamic Details [66.74088288846491]
HiFaceは、動的かつ静的なディテールで高忠実な3D顔再構成を目指している。
我々は、いくつかの損失関数を利用して、粗い形状と、合成データセットと実世界のデータセットの両方で詳細を共同で学習する。
論文 参考訳(メタデータ) (2023-03-20T16:07:02Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - ImFace: A Nonlinear 3D Morphable Face Model with Implicit Neural
Representations [21.389170615787368]
本稿では,暗黙のニューラル表現を持つ非線形かつ連続的な空間を学習するために,新しい3次元顔モデルImFaceを提案する。
2つの明示的に非交叉な変形場を構築し、それぞれアイデンティティと表現に関連する複雑な形状をモデル化し、表現の埋め込みを拡張するための改良された学習戦略を設計する。
ImFaceに加えて、暗黙の表現における水密入力要求の問題に対処するために、効果的な前処理パイプラインが提案されている。
論文 参考訳(メタデータ) (2022-03-28T05:37:59Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - Personalized Face Modeling for Improved Face Reconstruction and Motion
Retargeting [22.24046752858929]
本稿では、ユーザごとのパーソナライズされた顔モデルとフレームごとの顔の動きパラメータを共同で学習するエンドツーエンドフレームワークを提案する。
具体的には、パーソナライズされた修正を予測することによって、ユーザ固有の表現と動的(表現固有の)アルベドマップのブレンドを学習する。
実験結果から, 顔の微細な動態を広範囲の状況で正確に把握できることが示唆された。
論文 参考訳(メタデータ) (2020-07-14T01:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。