論文の概要: Exploring Adversarial Learning for Deep Semi-Supervised Facial Action
Unit Recognition
- arxiv url: http://arxiv.org/abs/2106.02258v1
- Date: Fri, 4 Jun 2021 04:50:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:04:28.443400
- Title: Exploring Adversarial Learning for Deep Semi-Supervised Facial Action
Unit Recognition
- Title(参考訳): 深層半監督顔面行動単位認識のための逆学習の探索
- Authors: Shangfei Wang, Yanan Chang, Guozhu Peng, Bowen Pan
- Abstract要約: 一部AU標識顔画像からの顔動作単位認識のための深層半教師付きフレームワークを提案する。
提案手法は、逆学習によりAU分布を捕捉し、最先端のAU認識作業より優れる。
- 参考スコア(独自算出の注目度): 38.589141957375226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current works formulate facial action unit (AU) recognition as a supervised
learning problem, requiring fully AU-labeled facial images during training. It
is challenging if not impossible to provide AU annotations for large numbers of
facial images. Fortunately, AUs appear on all facial images, whether manually
labeled or not, satisfy the underlying anatomic mechanisms and human behavioral
habits. In this paper, we propose a deep semi-supervised framework for facial
action unit recognition from partially AU-labeled facial images. Specifically,
the proposed deep semi-supervised AU recognition approach consists of a deep
recognition network and a discriminator D. The deep recognition network R
learns facial representations from large-scale facial images and AU classifiers
from limited ground truth AU labels. The discriminator D is introduced to
enforce statistical similarity between the AU distribution inherent in ground
truth AU labels and the distribution of the predicted AU labels from labeled
and unlabeled facial images. The deep recognition network aims to minimize
recognition loss from the labeled facial images, to faithfully represent
inherent AU distribution for both labeled and unlabeled facial images, and to
confuse the discriminator. During training, the deep recognition network R and
the discriminator D are optimized alternately. Thus, the inherent AU
distributions caused by underlying anatomic mechanisms are leveraged to
construct better feature representations and AU classifiers from partially
AU-labeled data during training. Experiments on two benchmark databases
demonstrate that the proposed approach successfully captures AU distributions
through adversarial learning and outperforms state-of-the-art AU recognition
work.
- Abstract(参考訳): 現在、顔アクションユニット(AU)の認識を教師付き学習問題として定式化し、トレーニング中に完全にAUラベルの顔画像を必要とする。
多数の顔画像に対してAUアノテーションを提供することは不可能である。
幸いなことに、AUは手動でラベル付けされたかどうかに関わらず、すべての顔画像に現れ、基礎となる解剖学的メカニズムと人間の行動習慣を満たす。
本稿では,部分的にAUラベルの顔画像から顔動作単位を認識するための深い半教師付きフレームワークを提案する。
深層認識ネットワークRは、大規模な顔画像から顔表現を学習し、AU分類器は、限られた真実のAUラベルから学習する。
識別器Dは、地上真実AUラベルに固有のAU分布と、ラベル付き及び未ラベルの顔画像から予測されたAUラベルの分布とを統計的に類似させるために導入される。
深層認識ネットワークは、ラベル付き顔画像からの認識損失を最小限に抑え、ラベル付き顔画像とラベル付き顔画像の両方の固有au分布を忠実に表現し、判別器を混乱させることを目的としている。
訓練中、深度認識ネットワークRと判別器Dとを交互に最適化する。
このように、基礎となる解剖機構によって引き起こされる固有のAU分布を利用して、トレーニング中に部分的にAUラベル付きデータからより良い特徴表現とAU分類器を構築する。
2つのベンチマークデータベースの実験により、提案手法は対角学習によりAU分布を捕捉し、最先端のAU認識作業より優れていることが示された。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - CoReFace: Sample-Guided Contrastive Regularization for Deep Face
Recognition [3.1677775852317085]
特徴表現学習に画像レベルの正規化を適用するために,CoReFace(Contrastive Regularization for Face Recognition)を提案する。
具体的には、サンプル誘導型コントラスト学習を用いて、画像と画像の関係を直接調整する。
コントラスト学習を顔認識に統合するため,画像の画質劣化を回避するために,画像の代わりに埋め込みを拡大する。
論文 参考訳(メタデータ) (2023-04-23T14:33:24Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Heterogeneous Visible-Thermal and Visible-Infrared Face Recognition
using Unit-Class Loss and Cross-Modality Discriminator [0.43748379918040853]
本稿では,クロスモーダル顔認識のためのエンドツーエンドフレームワークを提案する。
モダリティ情報を捨てつつアイデンティティ情報を保存するために,新しい単位クラス損失を提案する。
提案したネットワークは、モダリティ非依存のベクトル表現を抽出したり、テスト画像のマッチングペア分類に利用できる。
論文 参考訳(メタデータ) (2021-11-29T06:14:00Z) - AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition [79.8779790682205]
本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-12-29T03:42:04Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。