論文の概要: Unsupervised Facial Action Unit Intensity Estimation via Differentiable
Optimization
- arxiv url: http://arxiv.org/abs/2004.05908v1
- Date: Mon, 13 Apr 2020 12:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 00:10:49.693415
- Title: Unsupervised Facial Action Unit Intensity Estimation via Differentiable
Optimization
- Title(参考訳): 微分可能最適化による教師なし顔行動単位強度推定
- Authors: Xinhui Song and Tianyang Shi and Tianjia Shao and Yi Yuan and Zunlei
Feng and Changjie Fan
- Abstract要約: 顔画像からの顔AU強度推定のための教師なしフレームワークGE-Netを提案する。
本フレームワークは,入力画像に一致するように顔パラメータを反復的に更新する,微分可能な最適化を行う。
実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。
- 参考スコア(独自算出の注目度): 45.07851622835555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic intensity estimation of facial action units (AUs) from a single
image plays a vital role in facial analysis systems. One big challenge for
data-driven AU intensity estimation is the lack of sufficient AU label data.
Due to the fact that AU annotation requires strong domain expertise, it is
expensive to construct an extensive database to learn deep models. The limited
number of labeled AUs as well as identity differences and pose variations
further increases the estimation difficulties. Considering all these
difficulties, we propose an unsupervised framework GE-Net for facial AU
intensity estimation from a single image, without requiring any annotated AU
data. Our framework performs differentiable optimization, which iteratively
updates the facial parameters (i.e., head pose, AU parameters and identity
parameters) to match the input image. GE-Net consists of two modules: a
generator and a feature extractor. The generator learns to "render" a face
image from a set of facial parameters in a differentiable way, and the feature
extractor extracts deep features for measuring the similarity of the rendered
image and input real image. After the two modules are trained and fixed, the
framework searches optimal facial parameters by minimizing the differences of
the extracted features between the rendered image and the input image.
Experimental results demonstrate that our method can achieve state-of-the-art
results compared with existing methods.
- Abstract(参考訳): 顔画像からの顔行動単位(AU)の自動強度推定は、顔分析システムにおいて重要な役割を果たす。
データ駆動型AU強度推定の大きな課題のひとつは、十分なAUラベルデータがないことだ。
AUアノテーションは強力なドメインの専門知識を必要とするため、深いモデルを学ぶために広範囲のデータベースを構築するのはコストがかかる。
ラベル付きAUの限られた数と同一性の違いとポーズの変化により、推定困難が増大する。
これらすべての困難を考慮し,注釈付きAUデータを必要とせず,単一の画像から顔AU強度を推定するための教師なしフレームワークGE-Netを提案する。
筆者らのフレームワークは,顔のパラメータ(頭部ポーズ,AUパラメータ,識別パラメータ)を反復的に更新して,入力画像にマッチさせる,微分可能な最適化を行う。
GE-Netはジェネレータと特徴抽出器の2つのモジュールで構成される。
生成器は、顔パラメータの集合から顔画像を微分可能な方法で「レンダリング」し、特徴抽出器は、レンダリングされた画像と入力された実画像の類似度を測定するための深い特徴を抽出する。
2つのモジュールをトレーニングし、固定した後、このフレームワークは、描画画像と入力画像との抽出された特徴の差を最小限にして最適な顔パラメータを探索する。
実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。
関連論文リスト
- Multi-Feature Aggregation in Diffusion Models for Enhanced Face Super-Resolution [6.055006354743854]
超解像を生成するために,複数の低画質画像から抽出した特徴と組み合わせた低解像度画像を利用するアルゴリズムを開発した。
他のアルゴリズムとは異なり、我々のアプローチは属性情報を明示的に提供せずに顔の特徴を復元する。
これは、高解像度画像と低解像度画像を組み合わせて、より信頼性の高い超高解像度画像を生成するコンディショナーとして初めて使用される。
論文 参考訳(メタデータ) (2024-08-27T20:08:33Z) - OCR is All you need: Importing Multi-Modality into Image-based Defect Detection System [7.1083241462091165]
我々は,光学的文字認識(OCR)を基本とする外部モダリティ誘導データマイニングフレームワークを導入し,画像から統計的特徴を抽出する。
提案手法の重要な側面は、単一のモーダル認識モデルを用いて抽出された外部モーダル特徴のアライメントであり、畳み込みニューラルネットワークによって符号化された画像特徴である。
本手法は欠陥検出モデルのリコール率を大幅に向上させ,挑戦シナリオにおいても高い堅牢性を維持する。
論文 参考訳(メタデータ) (2024-03-18T07:41:39Z) - From Static to Dynamic: Adapting Landmark-Aware Image Models for Facial Expression Recognition in Videos [88.08209394979178]
野生における動的表情認識(DFER)は、データ制限によって依然として妨げられている。
抽出された顔のランドマーク認識機能に暗黙的に符号化された既存のSFER知識と動的情報を活用する新しい静的・動的モデル(S2D)を提案する。
論文 参考訳(メタデータ) (2023-12-09T03:16:09Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - MorphGAN: One-Shot Face Synthesis GAN for Detecting Recognition Bias [13.162012586770576]
本論文では, 頭部ポーズと表情調節を, 既視者の画像に適用するシミュレータについて述べる。
顔の小さなデータセットを新しいポーズと表現で拡張することで、増強やデータの不足に応じて、認識性能を最大9%向上することを示す。
論文 参考訳(メタデータ) (2020-12-09T18:43:03Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Multi-Scale Thermal to Visible Face Verification via Attribute Guided
Synthesis [55.29770222566124]
可視画像から抽出した属性を用いて、熱画像から属性保存された可視画像を合成し、クロスモーダルマッチングを行う。
抽出した属性によって導かれる熱画像から可視像を合成するために, 新規なマルチスケールジェネレータを提案する。
事前訓練されたVGG-Faceネットワークを利用して、合成画像と入力可視画像から特徴を抽出し、検証を行う。
論文 参考訳(メタデータ) (2020-04-20T01:45:05Z) - Vec2Face: Unveil Human Faces from their Blackbox Features in Face
Recognition [29.106746021757168]
本稿では,Bijective Metric Learning,すなわちBijective Generative Adrial Networks in a Distillation framework (DiBiGAN)を用いた新しい生成構造を提案する。
いくつかのベンチマークデータセットの結果は、画像リアリズムとID保存特性の両方においてDiBiGANの有効性を示した。
論文 参考訳(メタデータ) (2020-03-16T00:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。