論文の概要: Action Unit Detection with Joint Adaptive Attention and Graph Relation
- arxiv url: http://arxiv.org/abs/2107.04389v1
- Date: Fri, 9 Jul 2021 12:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:47:20.466212
- Title: Action Unit Detection with Joint Adaptive Attention and Graph Relation
- Title(参考訳): 共同適応注意とグラフ関係を用いた行動単位検出
- Authors: Chenggong Zhang and Juan Song and Qingyang Zhang and Weilong Dong and
Ruomeng Ding and Zhilei Liu
- Abstract要約: 本稿では,ABAW(Field Affective Behavior Analysis)2021のコンペティションについて紹介する。
提案手法では,事前学習されたJAAモデルを特徴抽出器として用いる。
我々のモデルは、挑戦的なAff-Wild2データベース上で0.674を達成する。
- 参考スコア(独自算出の注目度): 3.98807633060402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes an approach to the facial action unit (AU) detection. In
this work, we present our submission to the Field Affective Behavior Analysis
(ABAW) 2021 competition. The proposed method uses the pre-trained JAA model as
the feature extractor, and extracts global features, face alignment features
and AU local features on the basis of multi-scale features. We take the AU
local features as the input of the graph convolution to further consider the
correlation between AU, and finally use the fused features to classify AU. The
detected accuracy was evaluated by 0.5*accuracy + 0.5*F1. Our model achieves
0.674 on the challenging Aff-Wild2 database.
- Abstract(参考訳): 本稿では,顔行動単位(AU)検出へのアプローチについて述べる。
本研究では,ABAW(Field Affective Behavior Analysis)2021コンペティションに応募する。
提案手法は,事前学習したJAAモデルを特徴抽出器として使用し,マルチスケール特徴に基づいてグローバル特徴,顔アライメント特徴,AU局所特徴を抽出する。
我々は、AUの局所的な特徴をグラフ畳み込みの入力として、AU間の相関をさらに考慮し、最終的に融合した特徴を用いてAUを分類する。
検出精度は0.5*精度+0.5*F1。
aff-wild2データベース上で0.674。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Keypoint Description by Symmetry Assessment -- Applications in
Biometrics [49.547569925407814]
有限展開によりキーポイント周辺の近傍を記述するモデルに基づく特徴抽出器を提案する。
そのような関数の等曲線は、原点(キーポイント)と推定されたパラメータがよく定義された幾何学的解釈を持つように、高度に対称な w.r.t である。
論文 参考訳(メタデータ) (2023-11-03T00:49:25Z) - Local Region Perception and Relationship Learning Combined with Feature
Fusion for Facial Action Unit Detection [12.677143408225167]
ABAW(Affective Behavior Analysis in the-wild)に関するCVPR 2023コンペティションについて紹介する。
具体的には、AU検出に関連する顔の局所的特徴を効果的に抽出するために、局所的知覚モジュールを用いる。
また、グラフニューラルネットワークに基づくリレーショナル学習モジュールを使用して、AU間の関係をキャプチャする。
論文 参考訳(メタデータ) (2023-03-15T11:59:24Z) - Self-supervised Facial Action Unit Detection with Region and Relation
Learning [5.182661263082065]
地域と関係学習を用いたAU検出のための新しい自己教師型フレームワークを提案する。
改良された最適輸送(OT)アルゴリズムを導入し,AU間の相関特性を利用した。
Swin Transformerは、機能学習中に各AU領域内の長距離依存関係をモデル化するために利用される。
論文 参考訳(メタデータ) (2023-03-10T05:22:45Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition [6.229820412732652]
本稿では,2022年の第3回ABAW(Affective Behavior Analysis in-the-Wild)コンテストへの参加について述べる。
映像中の顔の動きを検知する手法を提案する。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
論文 参考訳(メタデータ) (2022-03-23T14:07:39Z) - AutoAssign: Differentiable Label Assignment for Dense Object Detection [94.24431503373884]
Auto COCOは、物体検出のためのアンカーフリー検出器である。
外観認識は、完全に微分可能な重み付け機構によって実現される。
我々の最良のモデルでは52.1%のAPが達成され、既存の1段検出器よりも優れている。
論文 参考訳(メタデータ) (2020-07-07T14:32:21Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z) - Multi-label Relation Modeling in Facial Action Units Detection [32.27835075990971]
本稿では,顔行動単位検出へのアプローチについて述べる。
AU1 (Inner Brow raiser)、AU2 (Outer Brow raiser)、AU4 (Brow Lowerer)、AU6 (Cheek raise)、AU12 (Lip Corner Puller)、AU15 (Lip Corner Depressor)、AU20 (Lip Stretcher)、AU25 (Lip Part) である。
論文 参考訳(メタデータ) (2020-02-04T03:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。