論文の概要: Attention Based Relation Network for Facial Action Units Recognition
- arxiv url: http://arxiv.org/abs/2210.13988v1
- Date: Sun, 23 Oct 2022 11:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:18:36.220498
- Title: Attention Based Relation Network for Facial Action Units Recognition
- Title(参考訳): 顔行動単位認識のための注意に基づく関係ネットワーク
- Authors: Yao Wei and Haoxiang Wang and Mingze Sun and Jiawang Liu
- Abstract要約: 本稿では,AU認識のための新しいアテンションベース関係ネットワーク(ABRNet)を提案する。
ABRNetは複数の関係学習レイヤを使用して、異なるAU関係を自動的にキャプチャする。
提案手法は,disFAとdisFA+データセットの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 8.522262699196412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial action unit (AU) recognition is essential to facial expression
analysis. Since there are highly positive or negative correlations between AUs,
some existing AU recognition works have focused on modeling AU relations.
However, previous relationship-based approaches typically embed predefined
rules into their models and ignore the impact of various AU relations in
different crowds. In this paper, we propose a novel Attention Based Relation
Network (ABRNet) for AU recognition, which can automatically capture AU
relations without unnecessary or even disturbing predefined rules. ABRNet uses
several relation learning layers to automatically capture different AU
relations. The learned AU relation features are then fed into a self-attention
fusion module, which aims to refine individual AU features with attention
weights to enhance the feature robustness. Furthermore, we propose an AU
relation dropout strategy and AU relation loss (AUR-Loss) to better model AU
relations, which can further improve AU recognition. Extensive experiments show
that our approach achieves state-of-the-art performance on the DISFA and DISFA+
datasets.
- Abstract(参考訳): 顔表情分析には顔行動単位(AU)認識が不可欠である。
AUの間には非常に正あるいは負の相関関係があるため、既存のAU認識はAU関係のモデル化に重点を置いている。
しかし、従来の関係に基づくアプローチは、通常、事前に定義されたルールをモデルに組み込んで、異なる集団における様々なAU関係の影響を無視する。
本稿では,AU認識のための新しいアテンションベース関係ネットワーク(ABRNet)を提案する。
ABRNetは複数の関係学習レイヤを使用して、異なるAU関係を自動的にキャプチャする。
学習されたAU関係機能は自己注意融合モジュールに入力され、個々のAU特徴を注意重みで洗練し、特徴の堅牢性を高めることを目的としている。
さらに,AU関係の減少戦略とAU関係の損失(AUR-Loss)をモデル化し,AU認識をさらに改善する。
広範な実験により,disfaおよびdisfa+データセットにおいて,最先端のパフォーマンスを実現することができた。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Towards End-to-End Explainable Facial Action Unit Recognition via Vision-Language Joint Learning [48.70249675019288]
本稿では,AU認識のためのエンドツーエンドのビジョン・ランゲージ共同学習ネットワークを提案する。
提案手法は,ほとんどのメトリクスにおける最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-08-01T15:35:44Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Multi-scale Promoted Self-adjusting Correlation Learning for Facial
Action Unit Detection [37.841035367349434]
AU(Facial Action Unit)検出は、感情コンピューティングと社会ロボティクスにおいて重要なタスクである。
以前の方法では、専門家の経験や特定のベンチマークの統計規則に基づいて、固定されたAU相関を用いた。
本稿では,自己調整型AU相関学習(SACL)手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:43:48Z) - Local Region Perception and Relationship Learning Combined with Feature
Fusion for Facial Action Unit Detection [12.677143408225167]
ABAW(Affective Behavior Analysis in the-wild)に関するCVPR 2023コンペティションについて紹介する。
具体的には、AU検出に関連する顔の局所的特徴を効果的に抽出するために、局所的知覚モジュールを用いる。
また、グラフニューラルネットワークに基づくリレーショナル学習モジュールを使用して、AU間の関係をキャプチャする。
論文 参考訳(メタデータ) (2023-03-15T11:59:24Z) - Self-supervised Facial Action Unit Detection with Region and Relation
Learning [5.182661263082065]
地域と関係学習を用いたAU検出のための新しい自己教師型フレームワークを提案する。
改良された最適輸送(OT)アルゴリズムを導入し,AU間の相関特性を利用した。
Swin Transformerは、機能学習中に各AU領域内の長距離依存関係をモデル化するために利用される。
論文 参考訳(メタデータ) (2023-03-10T05:22:45Z) - Learning Multi-dimensional Edge Feature-based AU Relation Graph for
Facial Action Unit Recognition [27.34564955127377]
顔行動ユニット(AU)の活性化は相互に影響を及ぼす。
既存のアプローチでは、顔ディスプレイの各ペアのAUに対して、明確にかつ明示的にそのようなキューを表現できない。
本稿では,AU間の関係を明確に記述するために,一意のグラフを深く学習するAU関係モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-05-02T03:38:00Z) - AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition [79.8779790682205]
本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-12-29T03:42:04Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Actor-Context-Actor Relation Network for Spatio-Temporal Action
Localization [47.61419011906561]
ACAR-Netは、時間的行動ローカライゼーションのための間接推論を可能にする、新しい高階関係推論演算子を基盤としている。
本手法は,ActivityNet Challenge 2020のAVA-Kineticsactionローカライゼーションタスクで第1位である。
論文 参考訳(メタデータ) (2020-06-14T18:51:49Z) - Facial Action Unit Intensity Estimation via Semantic Correspondence
Learning with Dynamic Graph Convolution [27.48620879003556]
本稿では,特徴マップ間の意味的対応を確立することによって,AUの潜伏関係を自動的に学習する学習フレームワークを提案する。
熱マップ回帰に基づくネットワークでは、特徴写像はAU強度と位置に関連する豊富な意味情報を保存する。
これはAU強度レベルの共起関係を暗黙的に表す特徴チャネル間の相関をモデル化する動機となっている。
論文 参考訳(メタデータ) (2020-04-20T23:55:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。