論文の概要: AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2012.14587v2
- Date: Fri, 2 Apr 2021 07:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:37:26.679591
- Title: AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition
- Title(参考訳): 表情認識のためのAU-Expression Knowledge Constrained Representation Learning
- Authors: Tao Pu, Tianshui Chen, Yuan Xie, Hefeng Wu, and Liang Lin
- Abstract要約: 本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
- 参考スコア(独自算出の注目度): 79.8779790682205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing human emotion/expressions automatically is quite an expected
ability for intelligent robotics, as it can promote better communication and
cooperation with humans. Current deep-learning-based algorithms may achieve
impressive performance in some lab-controlled environments, but they always
fail to recognize the expressions accurately for the uncontrolled in-the-wild
situation. Fortunately, facial action units (AU) describe subtle facial
behaviors, and they can help distinguish uncertain and ambiguous expressions.
In this work, we explore the correlations among the action units and facial
expressions, and devise an AU-Expression Knowledge Constrained Representation
Learning (AUE-CRL) framework to learn the AU representations without AU
annotations and adaptively use representations to facilitate facial expression
recognition. Specifically, it leverages AU-expression correlations to guide the
learning of the AU classifiers, and thus it can obtain AU representations
without incurring any AU annotations. Then, it introduces a knowledge-guided
attention mechanism that mines useful AU representations under the constraint
of AU-expression correlations. In this way, the framework can capture local
discriminative and complementary features to enhance facial representation for
facial expression recognition. We conduct experiments on the challenging
uncontrolled datasets to demonstrate the superiority of the proposed framework
over current state-of-the-art methods. Codes and trained models are available
at https://github.com/HCPLab-SYSU/AUE-CRL.
- Abstract(参考訳): 人間の感情や表現を自動的に認識することは、知的なロボット工学にとって期待できる能力である。
現在のディープラーニングベースのアルゴリズムは、実験室で制御された環境では印象的なパフォーマンスを達成しているが、制御不能な状況では表現を正確に認識できていない。
幸いなことに、顔のアクションユニット(AU)は微妙な顔の振る舞いを記述しており、不明瞭で曖昧な表情を区別するのに役立ちます。
本研究では,アクション単位と表情の相関について検討し,AUアノテーションを使わずにAU表現を学習するためのAU-Expression Knowledge Constrained Representation Learning (AUE-CRL) フレームワークを考案し,表情認識を容易にするために適応的に表現を使用する。
具体的には、AU-発現相関を利用してAU分類器の学習を誘導し、AUアノテーションを発生させることなくAU表現を得ることができる。
次に,AU-表現相関の制約の下で有用なAU表現をマイニングする,知識誘導型アテンション機構を導入する。
このようにして、このフレームワークは、表情認識のための顔表現を強化するために、局所的な識別的および補完的な特徴を捉えることができる。
提案手法が最先端の手法よりも優れていることを示すために,難解な非制御データセットについて実験を行った。
コードとトレーニングされたモデルはhttps://github.com/HCPLab-SYSU/AUE-CRLで公開されている。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Towards End-to-End Explainable Facial Action Unit Recognition via Vision-Language Joint Learning [48.70249675019288]
本稿では,AU認識のためのエンドツーエンドのビジョン・ランゲージ共同学習ネットワークを提案する。
提案手法は,ほとんどのメトリクスにおける最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-08-01T15:35:44Z) - Emotic Masked Autoencoder with Attention Fusion for Facial Expression Recognition [1.4374467687356276]
本稿では,MAE-Face self-supervised learning (SSL) 法と多視点融合注意機構を組み合わせた表現分類手法を提案する。
我々は、重要な顔の特徴を強調表示して、そのような機能がモデルのガイドとして機能するかどうかを判断することを目的とした、実装が容易でトレーニングなしのフレームワークを提案する。
Aff-wild2データセットにおけるモデル性能の改善により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-03-19T16:21:47Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Guided Interpretable Facial Expression Recognition via Spatial Action Unit Cues [55.97779732051921]
オーキューを分類器学習に明示的に組み込むための新しい学習戦略が提案されている。
分類性能を劣化させることなく階層的解釈性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-01T02:13:49Z) - Global-to-local Expression-aware Embeddings for Facial Action Unit
Detection [18.629509376315752]
本稿では,微妙で連続的な顔の動きを捉えるための表現表現法を提案する。
AU特徴マップ抽出器と対応するAUマスク抽出器から構成される。
提案手法は,従来よりも優れており,広く使用されている顔データセット上での最先端の性能を実現している。
論文 参考訳(メタデータ) (2022-10-27T04:00:04Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Exploring Adversarial Learning for Deep Semi-Supervised Facial Action
Unit Recognition [38.589141957375226]
一部AU標識顔画像からの顔動作単位認識のための深層半教師付きフレームワークを提案する。
提案手法は、逆学習によりAU分布を捕捉し、最先端のAU認識作業より優れる。
論文 参考訳(メタデータ) (2021-06-04T04:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。