論文の概要: 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning
- arxiv url: http://arxiv.org/abs/2009.14798v1
- Date: Wed, 30 Sep 2020 17:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:03:30.606459
- Title: 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning
- Title(参考訳): 逆学習による3次元密度幾何誘導顔面表情合成
- Authors: Rumeysa Bodur, Binod Bhattarai, Tae-Kyun Kim
- Abstract要約: 本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
- 参考スコア(独自算出の注目度): 54.24887282693925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manipulating facial expressions is a challenging task due to fine-grained
shape changes produced by facial muscles and the lack of input-output pairs for
supervised learning. Unlike previous methods using Generative Adversarial
Networks (GAN), which rely on cycle-consistency loss or sparse geometry
(landmarks) loss for expression synthesis, we propose a novel GAN framework to
exploit 3D dense (depth and surface normals) information for expression
manipulation. However, a large-scale dataset containing RGB images with
expression annotations and their corresponding depth maps is not available. To
this end, we propose to use an off-the-shelf state-of-the-art 3D reconstruction
model to estimate the depth and create a large-scale RGB-Depth dataset after a
manual data clean-up process. We utilise this dataset to minimise the novel
depth consistency loss via adversarial learning (note we do not have ground
truth depth maps for generated face images) and the depth categorical loss of
synthetic data on the discriminator. In addition, to improve the generalisation
and lower the bias of the depth parameters, we propose to use a novel
confidence regulariser on the discriminator side of the framework. We
extensively performed both quantitative and qualitative evaluations on two
publicly available challenging facial expression benchmarks: AffectNet and
RaFD. Our experiments demonstrate that the proposed method outperforms the
competitive baseline and existing arts by a large margin.
- Abstract(参考訳): 表情の操作は、顔の筋肉によって生じるきめ細かい形状の変化と、教師付き学習のための入出力ペアの欠如により難しい課題である。
表現合成のサイクルコンシステンシー損失やスパース幾何損失(ランドマーク)に依存するgan(generative adversarial networks)を用いた従来の手法とは異なり,表現操作に3次元高密度(深度および表面正規化)情報を利用する新しいganフレームワークを提案する。
しかし,表現アノテーションと対応する深度マップを備えたRGB画像を含む大規模データセットは利用できない。
そこで本研究では,最先端の3次元復元モデルを用いて奥行きを推定し,手作業によるデータクリーンアップ処理後の大規模rgb深部データセットを作成することを提案する。
我々は,このデータセットを利用して,対向学習による新たな深度一貫性の損失を最小化する(生成した顔画像の真相深度マップは存在しない)。
さらに, 深さパラメータの一般化とバイアス低減のために, フレームワークの判別器側で新しい信頼度正規化器を使用することを提案する。
AffectNetとRaFDの2つの顔表情ベンチマークにおいて,定量的および定性的な評価を行った。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - PaintHuman: Towards High-fidelity Text-to-3D Human Texturing via
Denoised Score Distillation [89.09455618184239]
テキスト・ツー・3D世代における最近の進歩は画期的なものである。
そこで我々はPaintHumanというモデルを提案し,その課題を2つの側面から解決する。
奥行きマップを手引きとして,現実的なセマンティックなテクスチャの整合性を保証する。
論文 参考訳(メタデータ) (2023-10-14T00:37:16Z) - Improving Neural Indoor Surface Reconstruction with Mask-Guided Adaptive
Consistency Constraints [0.6749750044497732]
本稿では、ビュー依存色とビュー非依存色を分離する2段階のトレーニングプロセスを提案し、さらに2つの新しい一貫性制約を活用して、余分な事前処理を必要とせず、詳細な再構成性能を向上させる。
合成および実世界のデータセットの実験は、事前推定誤差から干渉を減らす能力を示している。
論文 参考訳(メタデータ) (2023-09-18T13:05:23Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Self-supervised Human Mesh Recovery with Cross-Representation Alignment [20.69546341109787]
自己教師付きヒューマンメッシュリカバリ手法は、3Dアノテーション付きベンチマークデータセットの可用性と多様性が制限されているため、一般化性が低い。
頑健だがスパースな表現(2Dキーポイント)からの相補的情報を利用した相互表現アライメントを提案する。
この適応的相互表現アライメントは、偏差から明示的に学習し、相補的な情報(疎表現からの豊かさと密表現からの堅牢さ)をキャプチャする。
論文 参考訳(メタデータ) (2022-09-10T04:47:20Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。