論文の概要: Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer
- arxiv url: http://arxiv.org/abs/2008.08862v1
- Date: Thu, 20 Aug 2020 09:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:40:47.946007
- Title: Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer
- Title(参考訳): 微分可能レンダラを用いた動作単位強度推定のための教師なし学習顔面パラメータレグレッサ
- Authors: Xinhui Song, Tianyang Shi, Zunlei Feng, Mingli Song, Jackie Lin,
Chuanjie Lin, Changjie Fan, Yi Yuan
- Abstract要約: 骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
- 参考スコア(独自算出の注目度): 51.926868759681014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial action unit (AU) intensity is an index to describe all visually
discernible facial movements. Most existing methods learn intensity estimator
with limited AU data, while they lack generalization ability out of the
dataset. In this paper, we present a framework to predict the facial parameters
(including identity parameters and AU parameters) based on a bone-driven face
model (BDFM) under different views. The proposed framework consists of a
feature extractor, a generator, and a facial parameter regressor. The regressor
can fit the physical meaning parameters of the BDFM from a single face image
with the help of the generator, which maps the facial parameters to the
game-face images as a differentiable renderer. Besides, identity loss, loopback
loss, and adversarial loss can improve the regressive results. Quantitative
evaluations are performed on two public databases BP4D and DISFA, which
demonstrates that the proposed method can achieve comparable or better
performance than the state-of-the-art methods. What's more, the qualitative
results also demonstrate the validity of our method in the wild.
- Abstract(参考訳): 顔動作単位(英: face action unit、au)は、顔の動きを視覚的に識別する指標である。
既存の手法のほとんどは限定されたauデータでインテンシティ推定子を学習するが、データセットから一般化する能力に欠ける。
本稿では,骨駆動型顔モデル(BDFM)に基づいて,顔のパラメータ(識別パラメータやAUパラメータを含む)を予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
レグレッサは、1つの顔画像からbdfmの物理的意味パラメータをジェネレータの助けを借りて適合させ、顔パラメータをゲーム顔画像に微分可能なレンダラとしてマッピングすることができる。
さらに、アイデンティティ損失、ループバック損失、および敵対的損失は、回帰結果を改善することができる。
bp4d と disfa の2つの公開データベース上で定量的評価を行い,提案手法が最先端手法と同等あるいは良好な性能が得られることを示す。
さらに、質的な結果は、私たちの方法が野生で有効であることを示す。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Physically Disentangled Representations [13.234029150635658]
逆レンダリングは、監督なしで、物理的に歪んだシーンの表現を学ぶために使用することができる。
本稿では,下流クラスタリング,線形分類,セグメンテーションタスクの精度を向上させる学習表現における逆レンダリングの有用性を示す。
論文 参考訳(メタデータ) (2022-04-11T17:36:40Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - MIPGAN -- Generating Strong and High Quality Morphing Attacks Using
Identity Prior Driven GAN [22.220940043294334]
本稿では,アイデンティティ優先型生成適応ネットワークを用いた攻撃生成手法を提案する。
提案するMIPGANは、知覚的品質と識別因子を利用した新たに定式化された損失関数であるStyleGANから派生した。
提案手法は,商用およびディープラーニングベースの顔認識システムに対して,その脆弱性を評価することによって,強力なモーフィング攻撃を発生させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-03T15:08:38Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Multi-Scale Thermal to Visible Face Verification via Attribute Guided
Synthesis [55.29770222566124]
可視画像から抽出した属性を用いて、熱画像から属性保存された可視画像を合成し、クロスモーダルマッチングを行う。
抽出した属性によって導かれる熱画像から可視像を合成するために, 新規なマルチスケールジェネレータを提案する。
事前訓練されたVGG-Faceネットワークを利用して、合成画像と入力可視画像から特徴を抽出し、検証を行う。
論文 参考訳(メタデータ) (2020-04-20T01:45:05Z) - Unsupervised Facial Action Unit Intensity Estimation via Differentiable
Optimization [45.07851622835555]
顔画像からの顔AU強度推定のための教師なしフレームワークGE-Netを提案する。
本フレームワークは,入力画像に一致するように顔パラメータを反復的に更新する,微分可能な最適化を行う。
実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-04-13T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。