論文の概要: Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape
- arxiv url: http://arxiv.org/abs/2204.04379v1
- Date: Sat, 9 Apr 2022 03:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:07:41.475676
- Title: Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape
- Title(参考訳): 3DMMを超えて: 高忠実度3D顔形状をキャプチャする学習
- Authors: Xiangyu Zhu, Chang Yu, Di Huang, Zhen Lei, Hao Wang, Stan Z. Li
- Abstract要約: 3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
- 参考スコア(独自算出の注目度): 77.95154911528365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Morphable Model (3DMM) fitting has widely benefited face analysis due to
its strong 3D priori. However, previous reconstructed 3D faces suffer from
degraded visual verisimilitude due to the loss of fine-grained geometry, which
is attributed to insufficient ground-truth 3D shapes, unreliable training
strategies and limited representation power of 3DMM. To alleviate this issue,
this paper proposes a complete solution to capture the personalized shape so
that the reconstructed shape looks identical to the corresponding person.
Specifically, given a 2D image as the input, we virtually render the image in
several calibrated views to normalize pose variations while preserving the
original image geometry. A many-to-one hourglass network serves as the
encode-decoder to fuse multiview features and generate vertex displacements as
the fine-grained geometry. Besides, the neural network is trained by directly
optimizing the visual effect, where two 3D shapes are compared by measuring the
similarity between the multiview images rendered from the shapes. Finally, we
propose to generate the ground-truth 3D shapes by registering RGB-D images
followed by pose and shape augmentation, providing sufficient data for network
training. Experiments on several challenging protocols demonstrate the superior
reconstruction accuracy of our proposal on the face shape.
- Abstract(参考訳): 3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
しかし, 既往の3次元顔は, 微粒な形状の欠如による視力低下に悩まされており, 地上3次元形状の不足, 信頼できない訓練戦略, 3DMMの限られた表現力による。
この問題を軽減するため,本稿では,パーソナライズされた形状を捉えて,復元した形状が対応する人物と同一に見えるようにする方法を提案する。
具体的には、入力として2d画像が与えられると、元の画像形状を維持しながらポーズの変動を正規化するために、画像を複数のキャリブレーションビューで仮想的にレンダリングする。
多対一の砂時計網は、多視点特徴を融合させ、細粒度形状として頂点変位を生成するエンコードデコーダとして機能する。
さらに、視覚効果を直接最適化してニューラルネットワークを訓練し、2つの3d形状を比較し、形状から描画された多視点画像間の類似性を測定する。
最後に,rgb-d画像を登録し,ポーズと形状拡張を行い,ネットワークトレーニングに十分なデータを提供することにより,地上3次元形状を生成することを提案する。
いくつかの難解なプロトコルに関する実験は、顔の形状に関する提案の優れた再構成精度を示している。
関連論文リスト
- 3Deformer: A Common Framework for Image-Guided Mesh Deformation [27.732389685912214]
ソース3Dメッシュにセマンティック素材とユーザが指定したセマンティックイメージが与えられた場合、3Deformerはソースメッシュを正確に編集することができる。
私たちの3Deformerは素晴らしい結果をもたらし、最先端のレベルに達することができます。
論文 参考訳(メタデータ) (2023-07-19T10:44:44Z) - RAFaRe: Learning Robust and Accurate Non-parametric 3D Face
Reconstruction from Pseudo 2D&3D Pairs [13.11105614044699]
単視3次元顔再構成(SVFR)のための頑健で正確な非パラメトリック手法を提案する。
大規模な擬似2D&3Dデータセットは、まず詳細な3D顔をレンダリングし、野生の画像の顔と描画された顔とを交換することによって作成される。
本モデルは,FaceScape-wild/labおよびMICCベンチマークにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-10T19:40:26Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - Hard Example Generation by Texture Synthesis for Cross-domain Shape
Similarity Learning [97.56893524594703]
画像に基づく3次元形状検索(IBSR)は、与えられた2次元画像の対応する3次元形状を、大きな3次元形状データベースから見つけることを目的としている。
いくつかの適応技法によるメートル法学習は、類似性学習を形作るための自然な解決策のようです。
テクスチャ合成を応用した幾何中心の多視点メトリック学習フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-23T08:52:00Z) - Adaptive 3D Face Reconstruction from a Single Image [45.736818498242016]
1枚の画像から3次元の顔形状を適応的に再構成する新しい関節2Dと3Dの最適化法を提案する。
複数のデータセットに対する実験結果から,本手法は1枚のカラー画像から高品質な再構成を実現できることが示された。
論文 参考訳(メタデータ) (2020-07-08T09:35:26Z) - Single-View 3D Object Reconstruction from Shape Priors in Memory [15.641803721287628]
単一視点3次元オブジェクト再構成のための既存の方法は、高品質な3次元形状を再構築するのに十分な情報を含んでいない。
本稿では,画像中の不足情報を補うために,形状先行を明示的に構成するMem3Dという新しい手法を提案する。
また,入力画像と高い関連性を有する正確な3次元形状の検索を支援するボクセル三重項損失関数を提案する。
論文 参考訳(メタデータ) (2020-03-08T03:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。