論文の概要: SADRNet: Self-Aligned Dual Face Regression Networks for Robust 3D Dense
Face Alignment and Reconstruction
- arxiv url: http://arxiv.org/abs/2106.03021v1
- Date: Sun, 6 Jun 2021 03:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 22:19:12.187444
- Title: SADRNet: Self-Aligned Dual Face Regression Networks for Robust 3D Dense
Face Alignment and Reconstruction
- Title(参考訳): SADRNet:ロバスト3次元高密度顔アライメントと再構成のための自己調整デュアル顔レグレッションネットワーク
- Authors: Zeyu Ruan, Changqing Zou, Longhai Wu, Gangshan Wu, Limin Wang
- Abstract要約: 野生における3次元の顔のアライメントと再構築は難しい問題である。
我々は,自己整合両面回帰ネットワーク(SADRNet)と呼ばれるエンドツーエンドフレームワークを提案する。
AFLW2000-3D と Florence の2つのベンチマーク実験により,提案手法が既存の最先端手法よりも優れた性能を発揮することを示した。
- 参考スコア(独自算出の注目度): 36.122472182122806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Three-dimensional face dense alignment and reconstruction in the wild is a
challenging problem as partial facial information is commonly missing in
occluded and large pose face images. Large head pose variations also increase
the solution space and make the modeling more difficult. Our key idea is to
model occlusion and pose to decompose this challenging task into several
relatively more manageable subtasks. To this end, we propose an end-to-end
framework, termed as Self-aligned Dual face Regression Network (SADRNet), which
predicts a pose-dependent face, a pose-independent face. They are combined by
an occlusion-aware self-alignment to generate the final 3D face. Extensive
experiments on two popular benchmarks, AFLW2000-3D and Florence, demonstrate
that the proposed method achieves significant superior performance over
existing state-of-the-art methods.
- Abstract(参考訳): 野生の3次元顔の濃密なアライメントと再構成は、オクルード画像や大きなポーズ画像では部分的な顔情報が欠落しているため、難しい問題である。
大頭のポーズの変化も解空間を増加させ、モデリングを難しくする。
私たちのキーとなるアイデアは、オクルージョンをモデル化し、この困難なタスクを比較的管理しやすいいくつかのサブタスクに分解するポーズを取ることです。
そこで本研究では,姿勢依存の顔,ポーズ非依存顔を予測する自己整合型デュアルフェイスレグレッションネットワーク(sadrnet)と呼ばれるエンドツーエンドフレームワークを提案する。
それらは咬合認識自己調整によって結合され、最終的な3d顔を生成する。
AFLW2000-3D と Florence の2つのベンチマークにおいて,提案手法が既存の最先端手法よりも優れた性能を発揮することを示す。
関連論文リスト
- One-Shot High-Fidelity Talking-Head Synthesis with Deformable Neural
Radiance Field [81.07651217942679]
トーキングヘッド生成は、ソース画像の識別情報を保持し、駆動画像の動作を模倣する顔を生成することを目的としている。
我々は高忠実かつ自由視点の対話ヘッド合成を実現するHiDe-NeRFを提案する。
論文 参考訳(メタデータ) (2023-04-11T09:47:35Z) - A Hierarchical Representation Network for Accurate and Detailed Face
Reconstruction from In-The-Wild Images [15.40230841242637]
本稿では,1つの画像から正確な顔再構成を実現するために,新しい階層型表現ネットワーク(HRN)を提案する。
我々のフレームワークは、異なるビューの詳細な一貫性を考慮し、マルチビューに拡張することができる。
本手法は,再現精度と視覚効果の両方において既存手法より優れる。
論文 参考訳(メタデータ) (2023-02-28T09:24:36Z) - Perspective Reconstruction of Human Faces by Joint Mesh and Landmark
Regression [89.8129467907451]
本研究では,世界空間の3次元顔メッシュを同時に再構築し,画像平面上の2次元顔のランドマークを予測することを提案する。
予測された3Dおよび2Dランドマークに基づいて、6DF (6 Degrees Freedom)フェイスポーズを解決者により容易に推定することができる。
論文 参考訳(メタデータ) (2022-08-15T12:32:20Z) - HifiFace: 3D Shape and Semantic Prior Guided High Fidelity Face Swapping [116.1022638063613]
本研究では,光源面の顔形状を保存し,写真リアルな結果を生成できるHifiFaceを提案する。
本稿では,エンコーダとデコーダの組み合わせを最適化するSemantic Facial Fusionモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-18T07:39:09Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Joint Face Image Restoration and Frontalization for Recognition [79.78729632975744]
現実世界のシナリオでは、大きなポーズ、悪い照明、低解像度、ぼやけ、ノイズなど、多くの要因が顔認識性能を損なう可能性がある。
それまでの努力は通常、まず品質の低い顔から高品質な顔に復元し、次に顔認識を行う。
与えられた低品質の顔からフロンダル化された高品質の顔を復元する多段階顔復元モデルを提案する。
論文 参考訳(メタデータ) (2021-05-12T03:52:41Z) - Weakly-Supervised Multi-Face 3D Reconstruction [45.864415499303405]
多面的3D再構築のための効果的なエンドツーエンドフレームワークを提案する。
各画像の再構成された顔に対して、同じグローバルカメラモデルを採用し、3dシーンにおける相対的な頭部位置と向きを復元することができる。
論文 参考訳(メタデータ) (2021-01-06T13:15:21Z) - Self-Supervised Monocular 3D Face Reconstruction by Occlusion-Aware
Multi-view Geometry Consistency [40.56510679634943]
マルチビュー幾何整合性を利用した自己教師付きトレーニングアーキテクチャを提案する。
画素の整合性損失,奥行きの整合性損失,顔のランドマークに基づくエピポーラロスを含む,多視点整合性のための3つの新しい損失関数を設計する。
提案手法は精度が高く,特に多彩な表現,ポーズ,照明条件下では堅牢である。
論文 参考訳(メタデータ) (2020-07-24T12:36:09Z) - Face Super-Resolution Guided by 3D Facial Priors [92.23902886737832]
シャープな顔構造を把握した3次元顔先行情報を明示的に組み込んだ新しい顔超解像法を提案する。
我々の研究は、顔属性のパラメトリック記述の融合に基づく3次元形態的知識を初めて探求したものである。
提案した3D先行画像は、最先端技術よりも優れた顔超解像結果が得られる。
論文 参考訳(メタデータ) (2020-07-18T15:26:07Z) - Adaptive 3D Face Reconstruction from a Single Image [45.736818498242016]
1枚の画像から3次元の顔形状を適応的に再構成する新しい関節2Dと3Dの最適化法を提案する。
複数のデータセットに対する実験結果から,本手法は1枚のカラー画像から高品質な再構成を実現できることが示された。
論文 参考訳(メタデータ) (2020-07-08T09:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。