論文の概要: AU-Guided Unsupervised Domain Adaptive Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2012.10078v2
- Date: Thu, 18 Mar 2021 10:04:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 02:32:38.602127
- Title: AU-Guided Unsupervised Domain Adaptive Facial Expression Recognition
- Title(参考訳): AU-Guided Unsupervised Domain Adaptive Facial Expression Recognition
- Authors: Kai Wang, Yuxin Gu, Xiaojiang Peng, Panpan Zhang, Baigui Sun, Hao Li
- Abstract要約: 本稿では、異なるFERデータセット間のアノテーションバイアスを軽減するためのAUガイド付き非監視ドメイン適応FERフレームワークを提案する。
ドメイン不変のコンパクトな機能を実現するために、AUを用いた両ドメインのアンカー正負の三つ子をランダムに収集するAUガイドトリプルトトレーニングを利用します。
- 参考スコア(独自算出の注目度): 21.126514122636966
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The domain diversities including inconsistent annotation and varied image
collection conditions inevitably exist among different facial expression
recognition (FER) datasets, which pose an evident challenge for adapting the
FER model trained on one dataset to another one. Recent works mainly focus on
domain-invariant deep feature learning with adversarial learning mechanism,
ignoring the sibling facial action unit (AU) detection task which has obtained
great progress. Considering AUs objectively determine facial expressions, this
paper proposes an AU-guided unsupervised Domain Adaptive FER (AdaFER) framework
to relieve the annotation bias between different FER datasets. In AdaFER, we
first leverage an advanced model for AU detection on both source and target
domain. Then, we compare the AU results to perform AU-guided annotating, i.e.,
target faces that own the same AUs with source faces would inherit the labels
from source domain. Meanwhile, to achieve domain-invariant compact features, we
utilize an AU-guided triplet training which randomly collects
anchor-positive-negative triplets on both domains with AUs. We conduct
extensive experiments on several popular benchmarks and show that AdaFER
achieves state-of-the-art results on all these benchmarks.
- Abstract(参考訳): 不整合アノテーションやさまざまな画像収集条件を含むドメインの多様性は、異なる表情認識(FER)データセットの間に必然的に存在し、あるデータセットでトレーニングされたFERモデルを別のデータセットに適応させる上で明らかな課題となる。
近年の課題は, 対向学習機構を持つドメイン不変の深層特徴学習に焦点が当てられ, 顔行動単位(AU)検出タスクは無視されている。
本稿では、AUが客観的に表情を決定することを考慮し、異なるFERデータセット間のアノテーションバイアスを軽減するために、AU誘導非教師付きドメイン適応FER(AdaFER)フレームワークを提案する。
AdaFERでは、まずソースドメインとターゲットドメインの両方でAU検出のための高度なモデルを利用する。
そして、AUの結果を比較して、AU-guidedアノテートを行う。すなわち、ソース・フェイスと同じAUを持つターゲット・フェイスが、ソース・ドメインからラベルを継承する。
一方、ドメイン不変のコンパクトな特徴を達成するために、AUを用いたAU誘導三重項学習を用い、AUを用いて両ドメインのアンカー正負三重項をランダムに収集する。
我々は、いくつかの人気のあるベンチマークで広範な実験を行い、AdaFERがこれらのベンチマークで最先端の結果を達成することを示す。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - AU-Aware Vision Transformers for Biased Facial Expression Recognition [17.00557858587472]
本研究では,複数のFERデータセットのナイーブな共同トレーニングが個々のFERデータセットのパフォーマンスに有害であることを示す。
AU-ViT(AU-Aware Vision Transformer)を提案する。
私たちのAU-ViTは、RAF-DBで91.10%、AffectNetで65.59%、FERPlusで90.15%という、一般的な3つのデータセットで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-12T08:58:54Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Learning Multi-dimensional Edge Feature-based AU Relation Graph for
Facial Action Unit Recognition [27.34564955127377]
顔行動ユニット(AU)の活性化は相互に影響を及ぼす。
既存のアプローチでは、顔ディスプレイの各ペアのAUに対して、明確にかつ明示的にそのようなキューを表現できない。
本稿では,AU間の関係を明確に記述するために,一意のグラフを深く学習するAU関係モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-05-02T03:38:00Z) - Weakly Supervised Regional and Temporal Learning for Facial Action Unit
Recognition [36.350407471391065]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
半教師付き学習を取り入れることで、弱い教師付き地域学習と時間学習というエンド・ツー・エンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T12:02:01Z) - Self-Supervised Regional and Temporal Auxiliary Tasks for Facial Action
Unit Recognition [29.664359264758495]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
AU関係埋め込みによる地域特徴の識別を強化するため、ランダムに収穫されたAUパッチを復元するRoI塗装タスクを設計する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
これら2つの自己監督型補助課題に基づき、AUの局所的特徴、相互関係、動きの手がかりをバックボーンネットワークでよりよく捉えた。
論文 参考訳(メタデータ) (2021-07-30T02:39:45Z) - Adversarial Dual Distinct Classifiers for Unsupervised Domain Adaptation [67.83872616307008]
Unversarial Domain adaptation (UDA)は、異なる分散されたラベル付きソースドメインから学習モデルを構築することで、ラベルなしのターゲットサンプルを認識しようとする。
本稿では,タスク固有のカテゴリ境界に一致するソースとターゲット領域のデータ分布を同時に整合させる新しいアドリラルデュアル・ディスタンス・ネットワーク(AD$2$CN)を提案する。
具体的には、ドメイン不変の特徴発生器を利用して、識別的クロスドメインアライメントのガイダンスにより、ソースとターゲットデータを潜在共通空間に埋め込む。
論文 参考訳(メタデータ) (2020-08-27T01:29:10Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。