論文の概要: Multi-label Relation Modeling in Facial Action Units Detection
- arxiv url: http://arxiv.org/abs/2002.01105v2
- Date: Sat, 8 Feb 2020 10:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:25:37.193302
- Title: Multi-label Relation Modeling in Facial Action Units Detection
- Title(参考訳): 顔行動単位検出におけるマルチラベル関係モデリング
- Authors: Xianpeng Ji, Yu Ding, Lincheng Li, Yu Chen, Changjie Fan
- Abstract要約: 本稿では,顔行動単位検出へのアプローチについて述べる。
AU1 (Inner Brow raiser)、AU2 (Outer Brow raiser)、AU4 (Brow Lowerer)、AU6 (Cheek raise)、AU12 (Lip Corner Puller)、AU15 (Lip Corner Depressor)、AU20 (Lip Stretcher)、AU25 (Lip Part) である。
- 参考スコア(独自算出の注目度): 32.27835075990971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes an approach to the facial action units detections. The
involved action units (AU) include AU1 (Inner Brow Raiser), AU2 (Outer Brow
Raiser), AU4 (Brow Lowerer), AU6 (Cheek Raise), AU12 (Lip Corner Puller), AU15
(Lip Corner Depressor), AU20 (Lip Stretcher), and AU25 (Lip Part). Our work
relies on the dataset released by the FG-2020 Competition: Affective Behavior
Analysis In-the-Wild (ABAW). The proposed method consists of the data
preprocessing, the feature extraction and the AU classification. The data
preprocessing includes the detection of face texture and landmarks. The texture
static and landmark dynamic features are extracted through neural networks and
then fused as the feature latent representation. Finally, the fused feature is
taken as the initial hidden state of a recurrent neural network with a
trainable lookup AU table. The output of the RNN is the results of AU
classification. The detected accuracy is evaluated with 0.5$\times$accuracy +
0.5$\times$F1. Our method achieve 0.56 with the validation data that is
specified by the organization committee.
- Abstract(参考訳): 本稿では,顔行動単位検出へのアプローチについて述べる。
アクションユニット(AU)には、AU1(Inner Brow raiser)、AU2(Outer Brow raiser)、AU4(Brow Lowerer)、AU6(Cheek raise)、AU12(Lip Corner Puller)、AU15(Lip Corner Depressor)、AU20(Lip Stretcher)、AU25(Lip Part)が含まれる。
我々の研究は、FG-2020 Competition: Affective Behavior Analysis In-the-Wild (ABAW) がリリースしたデータセットに依存しています。
提案手法は,データ前処理,特徴抽出,AU分類からなる。
データ前処理は、顔テクスチャとランドマークの検出を含む。
テクスチャ静的およびランドマーク動的特徴はニューラルネットワークを通じて抽出され、特徴潜在表現として融合される。
最後に、融合した特徴を、トレーニング可能なルックアップAUテーブルを備えたリカレントニューラルネットワークの初期隠れ状態とする。
RNNの出力はAU分類の結果である。
検出精度は0.5$\times$accuracy + 0.5$\times$f1で評価される。
本手法は,組織委員会が指定する検証データを用いて 0.56 を達成する。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - FG-Net: Facial Action Unit Detection with Generalizable Pyramidal
Features [13.176011491885664]
以前のAU検出方法はデータセットにオーバーフィットする傾向があり、コーパス間で評価された場合、大きなパフォーマンス損失が発生する。
一般化可能な顔行動単位検出のためのFG-Netを提案する。
具体的には、FG-Netは、大規模で多様な顔画像データセットで事前訓練されたStyleGAN2モデルから特徴マップを抽出する。
論文 参考訳(メタデータ) (2023-08-23T18:51:11Z) - FAN-Trans: Online Knowledge Distillation for Facial Action Unit
Detection [45.688712067285536]
オンライン知識蒸留フレームワークを活用し,AU検出のための「FANTrans」手法を提案する。
我々のモデルは、AU毎の特徴を学習し、AU共起をモデル化するための、畳み込みと変圧器ブロックのハイブリッドネットワークで構成されている。
論文 参考訳(メタデータ) (2022-11-11T11:35:33Z) - AU-Supervised Convolutional Vision Transformers for Synthetic Facial
Expression Recognition [12.661683851729679]
本稿では,ABAW(Affective Behavior Analysis in-the-wild)コンペティション2022の6つの基本的表現分類法について述べる。
合成データの曖昧さと顔行動単位(AU)の客観性から,AU情報を活用して性能向上を図る。
論文 参考訳(メタデータ) (2022-07-20T09:33:39Z) - An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition [6.229820412732652]
本稿では,2022年の第3回ABAW(Affective Behavior Analysis in-the-Wild)コンテストへの参加について述べる。
映像中の顔の動きを検知する手法を提案する。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
論文 参考訳(メタデータ) (2022-03-23T14:07:39Z) - Action Unit Detection with Joint Adaptive Attention and Graph Relation [3.98807633060402]
本稿では,ABAW(Field Affective Behavior Analysis)2021のコンペティションについて紹介する。
提案手法では,事前学習されたJAAモデルを特徴抽出器として用いる。
我々のモデルは、挑戦的なAff-Wild2データベース上で0.674を達成する。
論文 参考訳(メタデータ) (2021-07-09T12:33:38Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。